/[BackupPC]/trunk/bin/BackupPC_updatedb
This is repository of my old source code which isn't updated any more. Go to git.rot13.org for current projects!
ViewVC logotype

Diff of /trunk/bin/BackupPC_updatedb

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

revision 136 by dpavlin, Fri Sep 23 15:04:37 2005 UTC revision 303 by dpavlin, Sat Jan 28 16:45:46 2006 UTC
# Line 12  use Time::HiRes qw/time/; Line 12  use Time::HiRes qw/time/;
12  use File::Pid;  use File::Pid;
13  use POSIX qw/strftime/;  use POSIX qw/strftime/;
14  use BackupPC::SearchLib;  use BackupPC::SearchLib;
15    use Cwd qw/abs_path/;
16    
17  use constant BPC_FTYPE_DIR => 5;  use constant BPC_FTYPE_DIR => 5;
18  use constant EST_CHUNK => 100000;  use constant EST_CHUNK => 100000;
19    
20    # daylight saving time change offset for 1h
21    my $dst_offset = 60 * 60;
22    
23  my $debug = 0;  my $debug = 0;
24  $|=1;  $|=1;
25    
26  my $start_t = time();  my $start_t = time();
27    
28  my $pidfile = new File::Pid;  my $pid_path = abs_path($0);
29    $pid_path =~ s/\W+/_/g;
30    
31    my $pidfile = new File::Pid({
32            file => "/tmp/$pid_path",
33    });
34    
35  if (my $pid = $pidfile->running ) {  if (my $pid = $pidfile->running ) {
36          die "$0 already running: $pid\n";          die "$0 already running: $pid\n";
# Line 29  if (my $pid = $pidfile->running ) { Line 38  if (my $pid = $pidfile->running ) {
38          $pidfile->remove;          $pidfile->remove;
39          $pidfile = new File::Pid;          $pidfile = new File::Pid;
40  }  }
 $pidfile->write;  
41  print STDERR "$0 using pid ",$pidfile->pid," file ",$pidfile->file,"\n";  print STDERR "$0 using pid ",$pidfile->pid," file ",$pidfile->file,"\n";
42    $pidfile->write;
43    
44  my $t_fmt = '%Y-%m-%d %H:%M:%S';  my $t_fmt = '%Y-%m-%d %H:%M:%S';
45    
# Line 43  my $beenThere = {}; Line 52  my $beenThere = {};
52  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";
53  my $user = $Conf{SearchUser} || '';  my $user = $Conf{SearchUser} || '';
54    
55  my $use_hest = $Conf{HyperEstraierIndex};  my $index_node_url = $Conf{HyperEstraierIndex};
 my ($index_path, $index_node_url) = BackupPC::SearchLib::getHyperEstraier_url($use_hest);  
56    
57  my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });  my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });
58    
59  my %opt;  my %opt;
60    
61  if ( !getopts("cdm:v:ij", \%opt ) ) {  if ( !getopts("cdm:v:ijf", \%opt ) ) {
62          print STDERR <<EOF;          print STDERR <<EOF;
63  usage: $0 [-c|-d] [-m num] [-v|-v level] [-i]  usage: $0 [-c|-d] [-m num] [-v|-v level] [-i|-j|-f]
64    
65  Options:  Options:
66          -c      create database on first use          -c      create database on first use
# Line 61  Options: Line 69  Options:
69          -v num  set verbosity (debug) level (default $debug)          -v num  set verbosity (debug) level (default $debug)
70          -i      update Hyper Estraier full text index          -i      update Hyper Estraier full text index
71          -j      update full text, don't check existing files          -j      update full text, don't check existing files
72            -f      don't do anything with full text index
73    
74  Option -j is variation on -i. It will allow faster initial creation  Option -j is variation on -i. It will allow faster initial creation
75  of full-text index from existing database.  of full-text index from existing database.
76    
77    Option -f will create database which is out of sync with full text index. You
78    will have to re-run $0 with -i to fix it.
79    
80  EOF  EOF
81          exit 1;          exit 1;
82  }  }
# Line 72  EOF Line 84  EOF
84  if ($opt{v}) {  if ($opt{v}) {
85          print "Debug level at $opt{v}\n";          print "Debug level at $opt{v}\n";
86          $debug = $opt{v};          $debug = $opt{v};
87    } elsif ($opt{f}) {
88            print "WARNING: disabling full-text index update. You need to re-run $0 -j !\n";
89            $index_node_url = undef;
90  }  }
91    
92  #---- subs ----  #---- subs ----
# Line 111  sub hest_update { Line 126  sub hest_update {
126    
127          my $skip_check = $opt{j} && print STDERR "Skipping check for existing files -- this should be used only with initital import\n";          my $skip_check = $opt{j} && print STDERR "Skipping check for existing files -- this should be used only with initital import\n";
128    
129          unless ($use_hest) {          unless (defined($index_node_url)) {
130                  print STDERR "HyperEstraier support not enabled in configuration\n";                  print STDERR "HyperEstraier support not enabled in configuration\n";
131                    $index_node_url = 0;
132                  return;                  return;
133          }          }
134    
135          print curr_time," updating HyperEstraier:";          print curr_time," updating Hyper Estraier:";
136    
137          my $t = time();          my $t = time();
138    
139          my $offset = 0;          my $offset = 0;
140          my $added = 0;          my $added = 0;
141    
142          print " opening index $use_hest";          print " opening index $index_node_url";
143          if ($index_path) {          if ($index_node_url) {
144                  $hest_db = HyperEstraier::Database->new();                  $hest_node ||= Search::Estraier::Node->new($index_node_url);
                 $hest_db->open($TopDir . $index_path, $HyperEstraier::Database::DBWRITER | $HyperEstraier::Database::DBCREAT);  
                 print " directly";  
         } elsif ($index_node_url) {  
                 $hest_node ||= HyperEstraier::Node->new($index_node_url);  
145                  $hest_node->set_auth('admin', 'admin');                  $hest_node->set_auth('admin', 'admin');
146                  print " via node URL";                  print " via node URL";
147          } else {          } else {
148                  die "don't know how to use HyperEstraier Index $use_hest";                  die "don't know how to use Hyper Estraier Index $index_node_url";
149          }          }
         print " increment is " . EST_CHUNK . " files:";  
150    
151          my $results = 0;          my $results = 0;
152    
# Line 143  sub hest_update { Line 154  sub hest_update {
154    
155                  my $where = '';                  my $where = '';
156                  my @data;                  my @data;
157                  if ($host_id && $share_id && $num) {                  if (defined($host_id) && defined($share_id) && defined($num)) {
158                          $where = qq{                          $where = qq{
159                          WHERE                          WHERE
160                                  hosts.id = ? AND                                  hosts.id = ? AND
# Line 183  sub hest_update { Line 194  sub hest_update {
194                  if ($results == 0) {                  if ($results == 0) {
195                          print " - no new files\n";                          print " - no new files\n";
196                          last;                          last;
197                    } else {
198                            print " - $results files: ";
199                  }                  }
200    
201                  sub fmt_date {                  sub fmt_date {
# Line 203  sub hest_update { Line 216  sub hest_update {
216                          }                          }
217    
218                          # create a document object                          # create a document object
219                          my $doc = HyperEstraier::Document->new;                          my $doc = Search::Estraier::Document->new;
220    
221                          # add attributes to the document object                          # add attributes to the document object
222                          $doc->add_attr('@uri', $uri);                          $doc->add_attr('@uri', $uri);
223    
224                          foreach my $c (@{ $sth->{NAME} }) {                          foreach my $c (@{ $sth->{NAME} }) {
225                                  $doc->add_attr($c, $row->{$c}) if ($row->{$c});                                  $doc->add_attr($c, $row->{$c}) if (defined($row->{$c}));
226                          }                          }
227    
228                          #$doc->add_attr('@cdate', fmt_date($row->{'date'}));                          #$doc->add_attr('@cdate', fmt_date($row->{'date'}));
# Line 223  sub hest_update { Line 236  sub hest_update {
236                          print STDERR $doc->dump_draft,"\n" if ($debug > 1);                          print STDERR $doc->dump_draft,"\n" if ($debug > 1);
237    
238                          # register the document object to the database                          # register the document object to the database
239                          if ($hest_db) {                          if ($hest_node) {
                                 $hest_db->put_doc($doc, $HyperEstraier::Database::PDCLEAN);  
                         } elsif ($hest_node) {  
240                                  $hest_node->put_doc($doc);                                  $hest_node->put_doc($doc);
241                          } else {                          } else {
242                                  die "not supported";                                  die "not supported";
# Line 234  sub hest_update { Line 245  sub hest_update {
245                  }                  }
246    
247                  print " $added";                  print " $added";
                 $hest_db->sync() if ($index_path);  
248    
249                  $offset += EST_CHUNK;                  $offset += EST_CHUNK;
250    
251          } while ($results == EST_CHUNK);          } while ($results == EST_CHUNK);
252    
         if ($index_path) {  
                 print ", close";  
                 $hest_db->close();  
         }  
   
253          my $dur = (time() - $t) || 1;          my $dur = (time() - $t) || 1;
254          printf(" [%.2f/s dur: %s]\n",          printf(" [%.2f/s dur: %s]\n",
255                  ( $added / $dur ),                  ( $added / $dur ),
# Line 256  sub hest_update { Line 261  sub hest_update {
261    
262    
263  ## update index ##  ## update index ##
264  if (($opt{i} || $opt{j} || ($index_path && ! -e $index_path)) && !$opt{c}) {  if ( ( $opt{i} || $opt{j} ) && !$opt{c} ) {
265          # update all          # update all
266          print "force update of HyperEstraier index ";          print "force update of Hyper Estraier index ";
         print "importing existing data" unless (-e $index_path);  
267          print "by -i flag" if ($opt{i});          print "by -i flag" if ($opt{i});
268          print "by -j flag" if ($opt{j});          print "by -j flag" if ($opt{j});
269          print "\n";          print "\n";
# Line 270  if (($opt{i} || $opt{j} || ($index_path Line 274  if (($opt{i} || $opt{j} || ($index_path
274  if ($opt{c}) {  if ($opt{c}) {
275          sub do_index {          sub do_index {
276                  my $index = shift || return;                  my $index = shift || return;
277                  my ($table,$col,$unique) = split(/_/, $index);                  my ($table,$col,$unique) = split(/:/, $index);
278                  $unique ||= '';                  $unique ||= '';
279                  $index =~ s/,/_/g;                  $index =~ s/\W+/_/g;
280                    print "$index on $table($col)" . ( $unique ? "u" : "" ) . " ";
281                  $dbh->do(qq{ create $unique index $index on $table($col) });                  $dbh->do(qq{ create $unique index $index on $table($col) });
282          }          }
283    
284          print "creating tables...\n";          print "creating tables...\n";
285          
286          $dbh->do(qq{          $dbh->do( qq{
287                  create table hosts (                  create table hosts (
288                          ID      SERIAL          PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
289                          name    VARCHAR(30)     NOT NULL,                          name    VARCHAR(30)     NOT NULL,
290                          IP      VARCHAR(15)                          IP      VARCHAR(15)
291                  );                              );            
292          });  
                 
         $dbh->do(qq{  
293                  create table shares (                  create table shares (
294                          ID      SERIAL          PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
295                          hostID  INTEGER         NOT NULL references hosts(id),                          hostID  INTEGER         NOT NULL references hosts(id),
296                          name    VARCHAR(30)     NOT NULL,                          name    VARCHAR(30)     NOT NULL,
297                          share   VARCHAR(200)    NOT NULL,                          share   VARCHAR(200)    NOT NULL
                         localpath VARCHAR(200)        
298                  );                              );            
         });  
299    
         $dbh->do(qq{  
300                  create table dvds (                  create table dvds (
301                          ID      SERIAL          PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
302                          num     INTEGER         NOT NULL,                          num     INTEGER         NOT NULL,
303                          name    VARCHAR(255)    NOT NULL,                          name    VARCHAR(255)    NOT NULL,
304                          mjesto  VARCHAR(255)                          mjesto  VARCHAR(255)
305                  );                  );
306          });  
           
         $dbh->do(qq{  
307                  create table backups (                  create table backups (
308                            id      serial,
309                          hostID  INTEGER         NOT NULL references hosts(id),                          hostID  INTEGER         NOT NULL references hosts(id),
310                          num     INTEGER         NOT NULL,                          num     INTEGER         NOT NULL,
311                          date    integer         NOT NULL,                          date    integer         NOT NULL,
312                          type    CHAR(4)         not null,                          type    CHAR(4)         not null,
313                          shareID integer         not null references shares(id),                          shareID integer         not null references shares(id),
314                          size    bigint          not null,                          size    bigint          not null,
315                          PRIMARY KEY(hostID, num, shareID)                          inc_size bigint         not null default -1,
316                            inc_deleted boolean     default false,
317                            parts   integer         not null default 1,
318                            PRIMARY KEY(id)
319                  );                              );            
         });  
   
         #do_index('backups_hostid,num_unique');  
   
320    
         $dbh->do(qq{      
321                  create table files (                  create table files (
322                          ID      SERIAL          PRIMARY KEY,                            ID              SERIAL,
323                          shareID INTEGER         NOT NULL references shares(id),                          shareID         INTEGER NOT NULL references shares(id),
324                          backupNum  INTEGER      NOT NULL,                          backupNum       INTEGER NOT NULL,
325                          name       VARCHAR(255) NOT NULL,                          name            VARCHAR(255) NOT NULL,
326                          path       VARCHAR(255) NOT NULL,                          path            VARCHAR(255) NOT NULL,
327                          date       integer      NOT NULL,                          date            integer NOT NULL,
328                          type       INTEGER      NOT NULL,                          type            INTEGER NOT NULL,
329                          size       INTEGER      NOT NULL                          size            bigint  NOT NULL,
330                            primary key(id)
331                  );                  );
         });  
   
332    
333          $dbh->do( qq{                  create table archive (
334                  create table archive                          id              serial,
                 (  
                         id                      int not null,  
335                          dvd_nr          int not null,                          dvd_nr          int not null,
336                            total_size      bigint default -1,
337                          note            text,                          note            text,
338                          username        varchar(20) not null,                          username        varchar(20) not null,
339                          date            timestamp,                          date            timestamp default now(),
340                          primary key(id)                          primary key(id)
341                  );                        );      
         }  
         );  
342    
343          $dbh->do( qq{                  create table archive_backup (
344                  create table archive_backup                          archive_id      int not null references archive(id) on delete cascade,
345                  (                          backup_id       int not null references backups(id),
                         archive_id      int not null,  
                         backup_id       int not null,  
                         status          text,  
346                          primary key(archive_id, backup_id)                          primary key(archive_id, backup_id)
347                  );                  );
         });  
   
         $dbh->do( qq{  
                 create table workflows(  
                         id                      int not null,  
                         step_id         int not null,  
                         start           timestamp,  
                         stop            timestamp,  
                         username        varchar(20),  
                         archive_id      int not null,  
                         running         boolean default true,  
                         primary key(id)  
                 );  
         });  
348    
349          $dbh->do( qq{                  create table archive_burned (
350                  create table workflow_step                          archive_id      int references archive(id),
351                  (                          date            timestamp default now(),
352                          step_id         int not null,                          part            int not null default 1,
353                          code            text,                          copy            int not null default 1,
354                          next_step       int,                          iso_size bigint default -1
                         stop            boolean default false,  
                         primary key(step_id)  
355                  );                  );
         });  
   
         $dbh->do( qq{  
                         alter table workflow_step  
                                 add constraint fk_workflow_next_step  
                                 foreign key(next_step)  
                                 references workflow_step(step_id);  
         });  
356    
357          $dbh->do( qq{                  create table backup_parts (
358                  alter table workflows                          id serial,
359                          add constraint fk_workflows_step_id                          backup_id int references backups(id),
360                          foreign key(step_id)                          part_nr int not null check (part_nr > 0),
361                          references workflow_step(step_id);                          tar_size bigint not null check (tar_size > 0),
362          });                          size bigint not null check (size > 0),
363                                    md5 text not null,
364          $dbh->do( qq{                          items int not null check (items > 0),
365                  alter table workflows                          date timestamp default now(),
366                          add constraint fk_workflows_archive_id                          primary key(id)
                         foreign key(archive_id)  
                         references archive(id);  
         });  
   
         $dbh->do( qq{  
                 create table workflow_log  
                 (  
                         workflow_id             int not null,  
                         step_id                 int not null,  
                         date                    timestamp not null,  
                         status                  text,  
                         primary key(workflow_id, step_id)  
367                  );                  );
368          });          });
369    
370          $dbh->do( qq{          print "creating indexes: ";
                 alter table workflow_log  
                         add constraint fk_workflow_log_workflow_id  
                         foreign key (workflow_id)  
                         references workflows(id);  
                 });  
           
         $dbh->do( qq{  
                 alter table workflow_log  
                         add constraint fk_workflow_log_step_id  
                         foreign key (step_id)  
                         references      workflow_step(step_id);  
                 });  
   
         print "creating indexes:";  
371    
372          foreach my $index (qw(          foreach my $index (qw(
373                  hosts_name                  hosts:name
374                  backups_hostID                  backups:hostID
375                  backups_num                  backups:num
376                  shares_hostID                  backups:shareID
377                  shares_name                  shares:hostID
378                  files_shareID                  shares:name
379                  files_path                  files:shareID
380                  files_name                  files:path
381                  files_date                  files:name
382                  files_size                  files:date
383                    files:size
384                    archive:dvd_nr
385                    archive_burned:archive_id
386                    backup_parts:backup_id,part_nr
387          )) {          )) {
                 print " $index";  
388                  do_index($index);                  do_index($index);
389          }          }
390    
391            print " creating sequence: ";
392            foreach my $seq (qw/dvd_nr/) {
393                    print "$seq ";
394                    $dbh->do( qq{ CREATE SEQUENCE $seq } );
395            }
396    
397    
398          print "...\n";          print "...\n";
399    
400          $dbh->commit;          $dbh->commit;
# Line 487  WHERE hostID=? AND num=? AND shareid=? Line 438  WHERE hostID=? AND num=? AND shareid=?
438    
439  $sth->{insert_backups} = $dbh->prepare(qq{  $sth->{insert_backups} = $dbh->prepare(qq{
440  INSERT INTO backups (hostID, num, date, type, shareid, size)  INSERT INTO backups (hostID, num, date, type, shareid, size)
441  VALUES (?,?,?,?,?,?)  VALUES (?,?,?,?,?,-1)
442    });
443    
444    $sth->{update_backups_size} = $dbh->prepare(qq{
445    UPDATE backups SET size = ?
446    WHERE hostID = ? and num = ? and date = ? and type =? and shareid = ?
447  });  });
448    
449  $sth->{insert_files} = $dbh->prepare(qq{  $sth->{insert_files} = $dbh->prepare(qq{
# Line 496  INSERT INTO files Line 452  INSERT INTO files
452          VALUES (?,?,?,?,?,?,?)          VALUES (?,?,?,?,?,?,?)
453  });  });
454    
455  foreach my $host_key (keys %{$hosts}) {  my @hosts = keys %{$hosts};
456    my $host_nr = 0;
457    
458    foreach my $host_key (@hosts) {
459    
460          my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";          my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";
461    
# Line 511  foreach my $host_key (keys %{$hosts}) { Line 470  foreach my $host_key (keys %{$hosts}) {
470                  $hostID = $dbh->last_insert_id(undef,undef,'hosts',undef);                  $hostID = $dbh->last_insert_id(undef,undef,'hosts',undef);
471          }          }
472    
473          print "host ".$hosts->{$host_key}->{'host'}.": ";          $host_nr++;
474            print "host ", $hosts->{$host_key}->{'host'}, " [",
475                    $host_nr, "/", ($#hosts + 1), "]: ";
476    
477          # get backups for a host          # get backups for a host
478          my @backups = $bpc->BackupInfoRead($hostname);          my @backups = $bpc->BackupInfoRead($hostname);
# Line 553  foreach my $host_key (keys %{$hosts}) { Line 514  foreach my $host_key (keys %{$hosts}) {
514                          # dump some log                          # dump some log
515                          print curr_time," ", $share;                          print curr_time," ", $share;
516    
                         my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);  
   
517                          $sth->{insert_backups}->execute(                          $sth->{insert_backups}->execute(
518                                  $hostID,                                  $hostID,
519                                  $backupNum,                                  $backupNum,
520                                  $backup->{'endTime'},                                  $backup->{'endTime'},
521                                  substr($backup->{'type'},0,4),                                  substr($backup->{'type'},0,4),
522                                  $shareID,                                  $shareID,
                                 $size,  
523                          );                          );
524    
525                          print " commit";                          my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);
526                          $dbh->commit();  
527                            eval {
528                                    $sth->{update_backups_size}->execute(
529                                            $size,
530                                            $hostID,
531                                            $backupNum,
532                                            $backup->{'endTime'},
533                                            substr($backup->{'type'},0,4),
534                                            $shareID,
535                                    );
536                                    print " commit";
537                                    $dbh->commit();
538                            };
539                            if ($@) {
540                                    print " rollback";
541                                    $dbh->rollback();
542                            }
543    
544                          my $dur = (time() - $t) || 1;                          my $dur = (time() - $t) || 1;
545                          printf(" %d/%d files %d/%d dirs %0.2f MB [%.2f/s dur: %s]\n",                          printf(" %d/%d files %d/%d dirs %0.2f MB [%.2f/s dur: %s]\n",
# Line 604  sub getShareID() { Line 578  sub getShareID() {
578    
579          $sth->{insert_share} ||= $dbh->prepare(qq{          $sth->{insert_share} ||= $dbh->prepare(qq{
580                  INSERT INTO shares                  INSERT INTO shares
581                          (hostID,name,share,localpath)                          (hostID,name,share)
582                  VALUES (?,?,?,?)                  VALUES (?,?,?)
583          });          });
584    
585          my $drop_down = $hostname . '/' . $share;          my $drop_down = $hostname . '/' . $share;
586          $drop_down =~ s#//+#/#g;          $drop_down =~ s#//+#/#g;
587    
588          $sth->{insert_share}->execute($hostID,$share, $drop_down ,undef);          $sth->{insert_share}->execute($hostID,$share, $drop_down);
589          return $dbh->last_insert_id(undef,undef,'shares',undef);          return $dbh->last_insert_id(undef,undef,'shares',undef);
590  }  }
591    
# Line 628  sub found_in_db { Line 602  sub found_in_db {
602                  SELECT 1 FROM files                  SELECT 1 FROM files
603                  WHERE shareID = ? and                  WHERE shareID = ? and
604                          path = ? and                          path = ? and
605                          date = ? and                          size = ? and
606                          size = ?                          ( date = ? or date = ? or date = ? )
607                  LIMIT 1                  LIMIT 1
608          });          });
609    
610          my @param = ($shareID,$path,$date,$size);          my @param = ($shareID,$path,$size,$date, $date-$dst_offset, $date+$dst_offset);
611          $sth->{file_in_db}->execute(@param);          $sth->{file_in_db}->execute(@param);
612          my $rows = $sth->{file_in_db}->rows;          my $rows = $sth->{file_in_db}->rows;
613          print STDERR "## found_in_db($shareID,$path,$date,$size) ",( $rows ? '+' : '-' ), join(" ",@param), "\n" if ($debug >= 3);          print STDERR "## found_in_db($shareID,$path,$date,$size) ",( $rows ? '+' : '-' ), join(" ",@param), "\n" if ($debug >= 3);
# Line 683  sub recurseDir($$$$$$$$) { Line 657  sub recurseDir($$$$$$$$) {
657                                  $filesInBackup->{$path_key}->{'size'}                                  $filesInBackup->{$path_key}->{'size'}
658                          ));                          ));
659    
660                            my $key_dst_prev = join(" ", (
661                                    $shareID,
662                                    $dir,
663                                    $path_key,
664                                    $filesInBackup->{$path_key}->{'mtime'} - $dst_offset,
665                                    $filesInBackup->{$path_key}->{'size'}
666                            ));
667    
668                            my $key_dst_next = join(" ", (
669                                    $shareID,
670                                    $dir,
671                                    $path_key,
672                                    $filesInBackup->{$path_key}->{'mtime'} + $dst_offset,
673                                    $filesInBackup->{$path_key}->{'size'}
674                            ));
675    
676                          my $found;                          my $found;
677                          if (! defined($beenThere->{$key}) && ! ($found = found_in_db($key, @data)) ) {                          if (
678                                    ! defined($beenThere->{$key}) &&
679                                    ! defined($beenThere->{$key_dst_prev}) &&
680                                    ! defined($beenThere->{$key_dst_next}) &&
681                                    ! ($found = found_in_db($key, @data))
682                            ) {
683                                  print STDERR "# key: $key [", $beenThere->{$key},"]" if ($debug >= 2);                                  print STDERR "# key: $key [", $beenThere->{$key},"]" if ($debug >= 2);
684    
685                                  if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {                                  if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {

Legend:
Removed from v.136  
changed lines
  Added in v.303

  ViewVC Help
Powered by ViewVC 1.1.26