1. protect against PC41s with field[3] == field[2]
[spider.git] / perl / Geomag.pm
index d169565aff0cada8fe0691d8abdc537d45d21518..e00dbd9e47a268b40f694ad0f6276c1c8f51b40c 100644 (file)
@@ -16,11 +16,12 @@ use DXLog;
 use Julian;
 use IO::File;
 use DXDebug;
+use DXDupe;
 
 use strict;
 use vars qw($date $sfi $k $a $r $forecast @allowed @denied $fp $node $from 
             $dirprefix $param
-            %dup $duplth $dupage);
+            $duplth $dupage $filterdef);
 
 $fp = 0;                                               # the DXLog fcb
 $date = 0;                                             # the unix time of the WWV (notional)
@@ -33,13 +34,25 @@ $node = "";                                         # originating node
 $from = "";                                            # who this came from
 @allowed = ();                                 # if present only these callsigns are regarded as valid WWV updators
 @denied = ();                                  # if present ignore any wwv from these callsigns
-%dup = ();                                             # the spot duplicates hash
 $duplth = 20;                                  # the length of text to use in the deduping
 $dupage = 12*3600;                             # the length of time to hold spot dups
 
 $dirprefix = "$main::data/wwv";
 $param = "$dirprefix/param";
 
+$filterdef = bless ([
+                         # tag, sort, field, priv, special parser 
+                         ['by', 'c', 7],
+                         ['origin', 'c', 8],
+                         ['channel', 'n', 9],
+                         ['by_dxcc', 'n', 10],
+                         ['by_itu', 'n', 11],
+                         ['by_zone', 'n', 12],
+                         ['origin_dxcc', 'c', 13],
+                         ['origin_itu', 'c', 14],
+                         ['origin_itu', 'c', 15],
+                        ], 'Filter::Cmd');
+
 sub init
 {
        $fp = DXLog::new('wwv', 'dat', 'm');
@@ -162,7 +175,7 @@ sub search
 {
        my $from = shift;
        my $to = shift;
-       my @date = $fp->unixtoj(shift);
+       my $date = $fp->unixtoj(shift);
        my $pattern = shift;
        my $search;
        my @out;
@@ -186,7 +199,7 @@ sub search
        
        $fp->close;                                     # close any open files
        
-       my $fh = $fp->open(@date); 
+       my $fh = $fp->open($date); 
        for ($count = 0; $count < $to; ) {
                my @in = ();
                if ($fh) {
@@ -230,8 +243,8 @@ sub print_item
 #
 sub readfile
 {
-       my @date = $fp->unixtoj(shift);
-       my $fh = $fp->open(@date); 
+       my $date = $fp->unixtoj(shift);
+       my $fh = $fp->open($date); 
        my @spots = ();
        my @in;
        
@@ -252,31 +265,13 @@ sub dup
        # dump if too old
        return 2 if $d < $main::systime - $dupage;
  
-#      chomp $text;
-#      $text = substr($text, 0, $duplth) if length $text > $duplth; 
-       my $dupkey = "$d|$sfi|$k|$a";
-       return 1 if exists $dup{$dupkey};
-       $dup{$dupkey} = $d * 60;         # in seconds (to the nearest minute)
-       return 0; 
-}
-
-# called every hour and cleans out the dup cache
-sub process
-{
-       my $cutoff = $main::systime - $dupage;
-       while (my ($key, $val) = each %dup) {
-               delete $dup{$key} if $val < $cutoff;
-       }
+       my $dupkey = "W$d|$sfi|$k|$a";
+       return DXDupe::check($dupkey, $main::systime+$dupage);
 }
 
 sub listdups
 {
-       my @out;
-       for (sort { $dup{$a} <=> $dup{$b} } keys %dup) {
-               my $val = $dup{$_};
-               push @out, "$_ = $val (" . cldatetime($val) . ")";
-       }
-       return @out;
+       return DXDupe::listdups('W', $dupage, @_);
 }
 1;
 __END__;