/[BackupPC]/trunk/bin/BackupPC_updatedb
This is repository of my old source code which isn't updated any more. Go to git.rot13.org for current projects!
ViewVC logotype

Diff of /trunk/bin/BackupPC_updatedb

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

revision 70 by dpavlin, Wed Aug 24 17:12:22 2005 UTC revision 250 by dpavlin, Sun Dec 11 14:27:45 2005 UTC
# Line 11  use Getopt::Std; Line 11  use Getopt::Std;
11  use Time::HiRes qw/time/;  use Time::HiRes qw/time/;
12  use File::Pid;  use File::Pid;
13  use POSIX qw/strftime/;  use POSIX qw/strftime/;
14    use BackupPC::SearchLib;
15    use Cwd qw/abs_path/;
16    
17  use constant BPC_FTYPE_DIR => 5;  use constant BPC_FTYPE_DIR => 5;
18    use constant EST_CHUNK => 100000;
19    
20    # daylight saving time change offset for 1h
21    my $dst_offset = 60 * 60;
22    
23  my $debug = 0;  my $debug = 0;
24  $|=1;  $|=1;
25    
26  my $start_t = time();  my $start_t = time();
27    
28  my $pidfile = new File::Pid;  my $pid_path = abs_path($0);
29    $pid_path =~ s/\W+/_/g;
30    
31    my $pidfile = new File::Pid({
32            file => "/tmp/$pid_path",
33    });
34    
35  if (my $pid = $pidfile->running ) {  if (my $pid = $pidfile->running ) {
36          die "$0 already running: $pid\n";          die "$0 already running: $pid\n";
# Line 27  if (my $pid = $pidfile->running ) { Line 38  if (my $pid = $pidfile->running ) {
38          $pidfile->remove;          $pidfile->remove;
39          $pidfile = new File::Pid;          $pidfile = new File::Pid;
40  }  }
 $pidfile->write;  
41  print STDERR "$0 using pid ",$pidfile->pid," file ",$pidfile->file,"\n";  print STDERR "$0 using pid ",$pidfile->pid," file ",$pidfile->file,"\n";
42    $pidfile->write;
43    
44  my $t_fmt = '%Y-%m-%d %H:%M:%S';  my $t_fmt = '%Y-%m-%d %H:%M:%S';
45    
# Line 41  my $beenThere = {}; Line 52  my $beenThere = {};
52  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";
53  my $user = $Conf{SearchUser} || '';  my $user = $Conf{SearchUser} || '';
54    
55    my $use_hest = $Conf{HyperEstraierIndex};
56    my ($index_path, $index_node_url) = BackupPC::SearchLib::getHyperEstraier_url($use_hest);
57    
58  my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });  my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });
59    
60  my %opt;  my %opt;
61    
62  if ( !getopts("cdm:v:", \%opt ) ) {  if ( !getopts("cdm:v:ijf", \%opt ) ) {
63          print STDERR <<EOF;          print STDERR <<EOF;
64  usage: $0 [-c|-d] [-m num] [-v|-v level]  usage: $0 [-c|-d] [-m num] [-v|-v level] [-i|-j|-f]
65    
66  Options:  Options:
67          -c      create database on first use          -c      create database on first use
68          -d      delete database before import          -d      delete database before import
69          -m num  import just num increments for one host          -m num  import just num increments for one host
70          -v num  set verbosity (debug) level (default $debug)          -v num  set verbosity (debug) level (default $debug)
71            -i      update Hyper Estraier full text index
72            -j      update full text, don't check existing files
73            -f      don't do anything with full text index
74    
75    Option -j is variation on -i. It will allow faster initial creation
76    of full-text index from existing database.
77    
78    Option -f will create database which is out of sync with full text index. You
79    will have to re-run $0 with -i to fix it.
80    
81  EOF  EOF
82          exit 1;          exit 1;
83  }  }
84    
85  ###################################create tables############################3  if ($opt{v}) {
86            print "Debug level at $opt{v}\n";
87            $debug = $opt{v};
88    } elsif ($opt{f}) {
89            print "WARNING: disabling full-text index update. You need to re-run $0 -j !\n";
90            ($use_hest, $index_path, $index_node_url) = (undef, undef, undef);
91    }
92    
93    #---- subs ----
94    
95    sub fmt_time {
96            my $t = shift || return;
97            my $out = "";
98            my ($ss,$mm,$hh) = gmtime($t);
99            $out .= "${hh}h" if ($hh);
100            $out .= sprintf("%02d:%02d", $mm,$ss);
101            return $out;
102    }
103    
104    sub curr_time {
105            return strftime($t_fmt,localtime());
106    }
107    
108    my $hest_db;
109    my $hest_node;
110    
111    sub signal {
112            my($sig) = @_;
113            if ($hest_db) {
114                    print "\nCaught a SIG$sig--syncing database and shutting down\n";
115                    $hest_db->sync();
116                    $hest_db->close();
117            }
118            exit(0);
119    }
120    
121    $SIG{'INT'}  = \&signal;
122    $SIG{'QUIT'} = \&signal;
123    
124    sub hest_update {
125    
126            my ($host_id, $share_id, $num) = @_;
127    
128            my $skip_check = $opt{j} && print STDERR "Skipping check for existing files -- this should be used only with initital import\n";
129    
130            unless (defined($use_hest)) {
131                    print STDERR "HyperEstraier support not enabled in configuration\n";
132                    $use_hest = 0;
133                    return;
134            }
135    
136            return unless($use_hest);
137    
138            print curr_time," updating HyperEstraier:";
139    
140            my $t = time();
141    
142            my $offset = 0;
143            my $added = 0;
144    
145            print " opening index $use_hest";
146            if ($index_path) {
147                    $hest_db = HyperEstraier::Database->new();
148                    $hest_db->open($TopDir . $index_path, $HyperEstraier::Database::DBWRITER | $HyperEstraier::Database::DBCREAT);
149                    print " directly";
150            } elsif ($index_node_url) {
151                    $hest_node ||= HyperEstraier::Node->new($index_node_url);
152                    $hest_node->set_auth('admin', 'admin');
153                    print " via node URL";
154            } else {
155                    die "don't know how to use HyperEstraier Index $use_hest";
156            }
157            print " increment is " . EST_CHUNK . " files:";
158    
159            my $results = 0;
160    
161            do {
162    
163                    my $where = '';
164                    my @data;
165                    if (defined($host_id) && defined($share_id) && defined($num)) {
166                            $where = qq{
167                            WHERE
168                                    hosts.id = ? AND
169                                    shares.id = ? AND
170                                    files.backupnum = ?
171                            };
172                            @data = ( $host_id, $share_id, $num );
173                    }
174    
175                    my $limit = sprintf('LIMIT '.EST_CHUNK.' OFFSET %d', $offset);
176    
177                    my $sth = $dbh->prepare(qq{
178                            SELECT
179                                    files.id                        AS fid,
180                                    hosts.name                      AS hname,
181                                    shares.name                     AS sname,
182                                    -- shares.share                 AS sharename,
183                                    files.backupnum                 AS backupnum,
184                                    -- files.name                   AS filename,
185                                    files.path                      AS filepath,
186                                    files.date                      AS date,
187                                    files.type                      AS type,
188                                    files.size                      AS size,
189                                    files.shareid                   AS shareid,
190                                    backups.date                    AS backup_date
191                            FROM files
192                                    INNER JOIN shares       ON files.shareID=shares.ID
193                                    INNER JOIN hosts        ON hosts.ID = shares.hostID
194                                    INNER JOIN backups      ON backups.num = files.backupNum and backups.hostID = hosts.ID AND backups.shareID = shares.ID
195                            $where
196                            $limit
197                    });
198    
199                    $sth->execute(@data);
200                    $results = $sth->rows;
201    
202                    if ($results == 0) {
203                            print " - no new files\n";
204                            last;
205                    }
206    
207                    sub fmt_date {
208                            my $t = shift || return;
209                            my $iso = BackupPC::Lib::timeStamp($t);
210                            $iso =~ s/\s/T/;
211                            return $iso;
212                    }
213    
214                    while (my $row = $sth->fetchrow_hashref()) {
215    
216                            my $fid = $row->{'fid'} || die "no fid?";
217                            my $uri = 'file:///' . $fid;
218    
219                            unless ($skip_check) {
220                                    my $id = ($hest_db || $hest_node)->uri_to_id($uri);
221                                    next unless ($id == -1);
222                            }
223    
224                            # create a document object
225                            my $doc = HyperEstraier::Document->new;
226    
227                            # add attributes to the document object
228                            $doc->add_attr('@uri', $uri);
229    
230                            foreach my $c (@{ $sth->{NAME} }) {
231                                    $doc->add_attr($c, $row->{$c}) if (defined($row->{$c}));
232                            }
233    
234                            #$doc->add_attr('@cdate', fmt_date($row->{'date'}));
235    
236                            # add the body text to the document object
237                            my $path = $row->{'filepath'};
238                            $doc->add_text($path);
239                            $path =~ s/(.)/$1 /g;
240                            $doc->add_hidden_text($path);
241    
242                            print STDERR $doc->dump_draft,"\n" if ($debug > 1);
243    
244                            # register the document object to the database
245                            if ($hest_db) {
246                                    $hest_db->put_doc($doc, $HyperEstraier::Database::PDCLEAN);
247                            } elsif ($hest_node) {
248                                    $hest_node->put_doc($doc);
249                            } else {
250                                    die "not supported";
251                            }
252                            $added++;
253                    }
254    
255                    print " $added";
256                    $hest_db->sync() if ($index_path);
257    
258                    $offset += EST_CHUNK;
259    
260            } while ($results == EST_CHUNK);
261    
262            if ($index_path) {
263                    print ", close";
264                    $hest_db->close();
265            }
266    
267            my $dur = (time() - $t) || 1;
268            printf(" [%.2f/s dur: %s]\n",
269                    ( $added / $dur ),
270                    fmt_time($dur)
271            );
272    }
273    
274    #---- /subs ----
275    
276    
277    ## update index ##
278    if (($opt{i} || $opt{j} || ($index_path && ! -e $TopDir . $index_path)) && !$opt{c}) {
279            # update all
280            print "force update of HyperEstraier index ";
281            print "importing existing data" unless (-e $TopDir . $index_path);
282            print "by -i flag" if ($opt{i});
283            print "by -j flag" if ($opt{j});
284            print "\n";
285            hest_update();
286    }
287    
288    ## create tables ##
289  if ($opt{c}) {  if ($opt{c}) {
290          sub do_index {          sub do_index {
291                  my $index = shift || return;                  my $index = shift || return;
292                  my ($table,$col,$unique) = split(/_/, $index);                  my ($table,$col,$unique) = split(/:/, $index);
293                  $unique ||= '';                  $unique ||= '';
294                  $index =~ s/,/_/g;                  $index =~ s/\W+/_/g;
295                    print "$index on $table($col)" . ( $unique ? "u" : "" ) . " ";
296                  $dbh->do(qq{ create $unique index $index on $table($col) });                  $dbh->do(qq{ create $unique index $index on $table($col) });
297          }          }
298    
299          print "creating tables...\n";          print "creating tables...\n";
300          
301          $dbh->do(qq{          $dbh->do( qq{
302                  create table hosts (                  create table hosts (
303                          ID      SERIAL          PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
304                          name    VARCHAR(30)     NOT NULL,                          name    VARCHAR(30)     NOT NULL,
305                          IP      VARCHAR(15)                          IP      VARCHAR(15)
306                  );                              );            
307          });  
                 
         $dbh->do(qq{  
308                  create table shares (                  create table shares (
309                          ID      SERIAL          PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
310                          hostID  INTEGER         NOT NULL references hosts(id),                          hostID  INTEGER         NOT NULL references hosts(id),
311                          name    VARCHAR(30)     NOT NULL,                          name    VARCHAR(30)     NOT NULL,
312                          share   VARCHAR(200)    NOT NULL,                          share   VARCHAR(200)    NOT NULL
                         localpath VARCHAR(200)        
313                  );                              );            
314          });  
315                            create table dvds (
316          $dbh->do(qq{                          ID      SERIAL          PRIMARY KEY,
317                            num     INTEGER         NOT NULL,
318                            name    VARCHAR(255)    NOT NULL,
319                            mjesto  VARCHAR(255)
320                    );
321    
322                  create table backups (                  create table backups (
323                            id      serial,
324                          hostID  INTEGER         NOT NULL references hosts(id),                          hostID  INTEGER         NOT NULL references hosts(id),
325                          num     INTEGER         NOT NULL,                          num     INTEGER         NOT NULL,
326                          date    integer         NOT NULL,                          date    integer         NOT NULL,
327                          type    CHAR(4)         not null,                          type    CHAR(4)         not null,
328                          shareID integer         not null references shares(id),                          shareID integer         not null references shares(id),
329                          size    integer         not null,                          size    bigint          not null,
330                          PRIMARY KEY(hostID, num, shareID)                          inc_size bigint         not null default -1,
331                            inc_deleted boolean     default false,
332                            parts   integer         not null default 1,
333                            PRIMARY KEY(id)
334                  );                              );            
         });  
335    
336          #do_index('backups_hostid,num_unique');                  create table files (
337                            ID              SERIAL,
338                            shareID         INTEGER NOT NULL references shares(id),
339                            backupNum       INTEGER NOT NULL,
340                            name            VARCHAR(255) NOT NULL,
341                            path            VARCHAR(255) NOT NULL,
342                            date            integer NOT NULL,
343                            type            INTEGER NOT NULL,
344                            size            bigint  NOT NULL,
345                            primary key(id)
346                    );
347    
348          $dbh->do(qq{                  create table archive (
349                  create table dvds (                          id              serial,
350                          ID      SERIAL          PRIMARY KEY,                          dvd_nr          int not null,
351                          num     INTEGER         NOT NULL,                          total_size      bigint default -1,
352                          name    VARCHAR(255)    NOT NULL,                          note            text,
353                          mjesto  VARCHAR(255)                          username        varchar(20) not null,
354                            date            timestamp default now(),
355                            primary key(id)
356                    );      
357    
358                    create table archive_backup (
359                            archive_id      int not null references archive(id) on delete cascade,
360                            backup_id       int not null references backups(id),
361                            primary key(archive_id, backup_id)
362                  );                  );
         });  
363    
364          $dbh->do(qq{                      create table archive_burned (
365                  create table files (                          archive_id      int references archive(id),
366                          ID      SERIAL          PRIMARY KEY,                            date            timestamp default now(),
367                          shareID INTEGER         NOT NULL references shares(id),                          part            int not null default 1,
368                          backupNum  INTEGER      NOT NULL,                          copy            int not null default 1,
369                          name       VARCHAR(255) NOT NULL,                          iso_size bigint default -1
370                          path       VARCHAR(255) NOT NULL,                  );
371                          date       integer      NOT NULL,  
372                          type       INTEGER      NOT NULL,                  create table backup_parts (
373                          size       INTEGER      NOT NULL,                          id serial,
374                          dvdid      INTEGER      references dvds(id)                              backup_id int references backups(id),
375                            part_nr int not null check (part_nr > 0),
376                            tar_size bigint not null check (tar_size > 0),
377                            size bigint not null check (size > 0),
378                            md5 text not null,
379                            items int not null check (items > 0),
380                            date timestamp default now(),
381                            primary key(id)
382                  );                  );
383          });          });
384    
385          print "creating indexes:";          print "creating indexes: ";
386    
387          foreach my $index (qw(          foreach my $index (qw(
388                  hosts_name                  hosts:name
389                  backups_hostID                  backups:hostID
390                  backups_num                  backups:num
391                  shares_hostID                  backups:shareID
392                  shares_name                  shares:hostID
393                  files_shareID                  shares:name
394                  files_path                  files:shareID
395                  files_name                  files:path
396                  files_date                  files:name
397                  files_size                  files:date
398                    files:size
399                    archive:dvd_nr
400                    archive_burned:archive_id
401                    backup_parts:backup_id,part_nr
402          )) {          )) {
                 print " $index";  
403                  do_index($index);                  do_index($index);
404          }          }
405    
406            print " creating sequence: ";
407            foreach my $seq (qw/dvd_nr/) {
408                    print "$seq ";
409                    $dbh->do( qq{ CREATE SEQUENCE $seq } );
410            }
411    
412    
413          print "...\n";          print "...\n";
414    
415          $dbh->commit;          $dbh->commit;
416    
417  }  }
418    
419    ## delete data before inseting ##
420  if ($opt{d}) {  if ($opt{d}) {
421          print "deleting ";          print "deleting ";
422          foreach my $table (qw(files dvds backups shares hosts)) {          foreach my $table (qw(files dvds backups shares hosts)) {
# Line 160  if ($opt{d}) { Line 428  if ($opt{d}) {
428          $dbh->commit;          $dbh->commit;
429  }  }
430    
431  if ($opt{v}) {  ## insert new values ##
         print "Debug level at $opt{v}\n";  
         $debug = $opt{v};  
 }  
   
 #################################INSERT VALUES#############################  
432    
433  # get hosts  # get hosts
434  $hosts = $bpc->HostInfoRead();  $hosts = $bpc->HostInfoRead();
# Line 190  WHERE hostID=? AND num=? AND shareid=? Line 453  WHERE hostID=? AND num=? AND shareid=?
453    
454  $sth->{insert_backups} = $dbh->prepare(qq{  $sth->{insert_backups} = $dbh->prepare(qq{
455  INSERT INTO backups (hostID, num, date, type, shareid, size)  INSERT INTO backups (hostID, num, date, type, shareid, size)
456  VALUES (?,?,?,?,?,?)  VALUES (?,?,?,?,?,-1)
457    });
458    
459    $sth->{update_backups_size} = $dbh->prepare(qq{
460    UPDATE backups SET size = ?
461    WHERE hostID = ? and num = ? and date = ? and type =? and shareid = ?
462  });  });
463    
464  $sth->{insert_files} = $dbh->prepare(qq{  $sth->{insert_files} = $dbh->prepare(qq{
# Line 199  INSERT INTO files Line 467  INSERT INTO files
467          VALUES (?,?,?,?,?,?,?)          VALUES (?,?,?,?,?,?,?)
468  });  });
469    
470  sub fmt_time {  my @hosts = keys %{$hosts};
471          my $t = shift || return;  my $host_nr = 0;
         my $out = "";  
         my ($ss,$mm,$hh) = gmtime($t);  
         $out .= "${hh}h" if ($hh);  
         $out .= sprintf("%02d:%02d", $mm,$ss);  
         return $out;  
 }  
472    
473  foreach my $host_key (keys %{$hosts}) {  foreach my $host_key (@hosts) {
474    
475          my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";          my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";
476    
# Line 223  foreach my $host_key (keys %{$hosts}) { Line 485  foreach my $host_key (keys %{$hosts}) {
485                  $hostID = $dbh->last_insert_id(undef,undef,'hosts',undef);                  $hostID = $dbh->last_insert_id(undef,undef,'hosts',undef);
486          }          }
487    
488          print "host ".$hosts->{$host_key}->{'host'}.": ";          $host_nr++;
489            print "host ", $hosts->{$host_key}->{'host'}, " [",
490                    $host_nr, "/", ($#hosts + 1), "]: ";
491    
492          # get backups for a host          # get backups for a host
493          my @backups = $bpc->BackupInfoRead($hostname);          my @backups = $bpc->BackupInfoRead($hostname);
# Line 263  foreach my $host_key (keys %{$hosts}) { Line 527  foreach my $host_key (keys %{$hosts}) {
527                          next if ($count > 0);                          next if ($count > 0);
528    
529                          # dump some log                          # dump some log
530                          print strftime($t_fmt,localtime())," ", $share;                          print curr_time," ", $share;
   
                         my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);  
531    
532                          $sth->{insert_backups}->execute(                          $sth->{insert_backups}->execute(
533                                  $hostID,                                  $hostID,
534                                  $backupNum,                                  $backupNum,
535                                  $backup->{'endTime'},                                  $backup->{'endTime'},
536                                  $backup->{'type'},                                  substr($backup->{'type'},0,4),
537                                  $shareID,                                  $shareID,
                                 $size,  
538                          );                          );
539    
540                          print " commit";                          my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);
541                          $dbh->commit();  
542                            eval {
543                                    $sth->{update_backups_size}->execute(
544                                            $size,
545                                            $hostID,
546                                            $backupNum,
547                                            $backup->{'endTime'},
548                                            substr($backup->{'type'},0,4),
549                                            $shareID,
550                                    );
551                                    print " commit";
552                                    $dbh->commit();
553                            };
554                            if ($@) {
555                                    print " rollback";
556                                    $dbh->rollback();
557                            }
558    
559                          my $dur = (time() - $t) || 1;                          my $dur = (time() - $t) || 1;
560                          printf(" %d/%d files %d/%d dirs %0.2f MB [%.2f/s dur: %s]\n",                          printf(" %d/%d files %d/%d dirs %0.2f MB [%.2f/s dur: %s]\n",
# Line 286  foreach my $host_key (keys %{$hosts}) { Line 563  foreach my $host_key (keys %{$hosts}) {
563                                  ( ($f+$d) / $dur ),                                  ( ($f+$d) / $dur ),
564                                  fmt_time($dur)                                  fmt_time($dur)
565                          );                          );
566    
567                            hest_update($hostID, $shareID, $backupNum) if ($nf + $nd > 0);
568                  }                  }
569    
570          }          }
# Line 314  sub getShareID() { Line 593  sub getShareID() {
593    
594          $sth->{insert_share} ||= $dbh->prepare(qq{          $sth->{insert_share} ||= $dbh->prepare(qq{
595                  INSERT INTO shares                  INSERT INTO shares
596                          (hostID,name,share,localpath)                          (hostID,name,share)
597                  VALUES (?,?,?,?)                  VALUES (?,?,?)
598          });          });
599    
600          my $drop_down = $hostname . '/' . $share;          my $drop_down = $hostname . '/' . $share;
601          $drop_down =~ s#//+#/#g;          $drop_down =~ s#//+#/#g;
602    
603          $sth->{insert_share}->execute($hostID,$share, $drop_down ,undef);          $sth->{insert_share}->execute($hostID,$share, $drop_down);
604          return $dbh->last_insert_id(undef,undef,'shares',undef);          return $dbh->last_insert_id(undef,undef,'shares',undef);
605  }  }
606    
# Line 330  sub found_in_db { Line 609  sub found_in_db {
609          my @data = @_;          my @data = @_;
610          shift @data;          shift @data;
611    
612          my ($key, $shareID,undef,$name,$path,undef,$date,undef,$size) = @_;          my ($key, $shareID,undef,$name,$path,$date,undef,$size) = @_;
613    
614          return $beenThere->{$key} if (defined($beenThere->{$key}));          return $beenThere->{$key} if (defined($beenThere->{$key}));
615    
# Line 338  sub found_in_db { Line 617  sub found_in_db {
617                  SELECT 1 FROM files                  SELECT 1 FROM files
618                  WHERE shareID = ? and                  WHERE shareID = ? and
619                          path = ? and                          path = ? and
620                          date = ? and                          size = ? and
621                          size = ?                          ( date = ? or date = ? or date = ? )
622                    LIMIT 1
623          });          });
624    
625          my @param = ($shareID,$path,$date,$size);          my @param = ($shareID,$path,$size,$date, $date-$dst_offset, $date+$dst_offset);
626          $sth->{file_in_db}->execute(@param);          $sth->{file_in_db}->execute(@param);
627          my $rows = $sth->{file_in_db}->rows;          my $rows = $sth->{file_in_db}->rows;
628          print STDERR "## found_in_db ",( $rows ? '+' : '-' ), join(" ",@param), "\n" if ($debug >= 3);          print STDERR "## found_in_db($shareID,$path,$date,$size) ",( $rows ? '+' : '-' ), join(" ",@param), "\n" if ($debug >= 3);
629    
630          $beenThere->{$key}++;          $beenThere->{$key}++;
631    
# Line 392  sub recurseDir($$$$$$$$) { Line 672  sub recurseDir($$$$$$$$) {
672                                  $filesInBackup->{$path_key}->{'size'}                                  $filesInBackup->{$path_key}->{'size'}
673                          ));                          ));
674    
675                            my $key_dst_prev = join(" ", (
676                                    $shareID,
677                                    $dir,
678                                    $path_key,
679                                    $filesInBackup->{$path_key}->{'mtime'} - $dst_offset,
680                                    $filesInBackup->{$path_key}->{'size'}
681                            ));
682    
683                            my $key_dst_next = join(" ", (
684                                    $shareID,
685                                    $dir,
686                                    $path_key,
687                                    $filesInBackup->{$path_key}->{'mtime'} + $dst_offset,
688                                    $filesInBackup->{$path_key}->{'size'}
689                            ));
690    
691                          my $found;                          my $found;
692                          if (! defined($beenThere->{$key}) && ! ($found = found_in_db($key, @data)) ) {                          if (
693                                    ! defined($beenThere->{$key}) &&
694                                    ! defined($beenThere->{$key_dst_prev}) &&
695                                    ! defined($beenThere->{$key_dst_next}) &&
696                                    ! ($found = found_in_db($key, @data))
697                            ) {
698                                  print STDERR "# key: $key [", $beenThere->{$key},"]" if ($debug >= 2);                                  print STDERR "# key: $key [", $beenThere->{$key},"]" if ($debug >= 2);
699    
700                                  if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {                                  if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {

Legend:
Removed from v.70  
changed lines
  Added in v.250

  ViewVC Help
Powered by ViewVC 1.1.26