added DXDupe for persistant dupes (and to allow dup checking for other
[spider.git] / perl / DXDupe.pm
1 #
2 # class to handle all dupes in the system
3 #
4 # each dupe entry goes into a tied hash file 
5 #
6 # the only thing this class really does is provide a
7 # mechanism for storing and checking dups
8 #
9
10 package DXDupe;
11
12 use DXDebug;
13 use DXUtil;
14 use DXVars;
15
16 use vars qw{$lasttime $dbm %d $default $fn};
17
18 $default = 48*24*60*60;
19 $lasttime = 0;
20 $fn = "$main::data/dupefile";
21
22 sub init
23 {
24         $dbm = tie (%d, 'DB_File', $fn) or confess "can't open dupe file: $fn ($!)";
25 }
26
27 sub finish
28 {
29         undef $dbm;
30         untie %d;
31 }
32
33 sub check
34 {
35         my ($s, $t) = @_;
36         return 1 if exists $d{$s};
37         $t = $main::systime + $default unless $t;
38         $d{$s} = $t;
39         return 0;
40 }
41
42 sub del
43 {
44         my $s = shift;
45         delete $d{$s};
46 }
47
48 sub process
49 {
50         # once an hour
51         if ($main::systime - $lasttime >=  3600) {
52                 while (($k, $v) = each %d) {
53                         delete $d{$k} if $main::systime >= $v;
54                 }
55                 $lasttime = $main::systime;
56         }
57 }
58
59 sub get
60 {
61         my $start = shift;
62         my @out;
63         while (($k, $v) = each %d) {
64                 push @out, $k, $v if !$start || $k =~ /^$start/; 
65         }
66         return @out;
67 }
68
69 sub listdups
70 {
71         my $let = shift;
72         my $dupage = shift;
73         my $regex = shift;
74
75         $regex =~ s/[\^\$\@\%]//g;
76         $regex = "^$let" . $regex;
77         my @out;
78         for (sort { $d{$a} <=> $d{$b} } grep { m{$regex}i } keys %d) {
79                 my ($dum, $key) = unpack "a1a*", $_;
80                 push @out, "$key = " . cldatetime($d{$_} - $dupage);
81         }
82         return @out;
83 }
84 1;