/[BackupPC]/trunk/bin/BackupPC_updatedb
This is repository of my old source code which isn't updated any more. Go to git.rot13.org for current projects!
ViewVC logotype

Diff of /trunk/bin/BackupPC_updatedb

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

revision 90 by dpavlin, Sun Aug 28 17:42:25 2005 UTC revision 305 by dpavlin, Sat Jan 28 19:49:18 2006 UTC
# Line 11  use Getopt::Std; Line 11  use Getopt::Std;
11  use Time::HiRes qw/time/;  use Time::HiRes qw/time/;
12  use File::Pid;  use File::Pid;
13  use POSIX qw/strftime/;  use POSIX qw/strftime/;
14    use BackupPC::SearchLib;
15    use Cwd qw/abs_path/;
16    
17  use constant BPC_FTYPE_DIR => 5;  use constant BPC_FTYPE_DIR => 5;
18    use constant EST_CHUNK => 100000;
19    
20    # daylight saving time change offset for 1h
21    my $dst_offset = 60 * 60;
22    
23  my $debug = 0;  my $debug = 0;
24  $|=1;  $|=1;
25    
26  my $start_t = time();  my $start_t = time();
27    
28  my $pidfile = new File::Pid;  my $pid_path = abs_path($0);
29    $pid_path =~ s/\W+/_/g;
30    
31    my $pidfile = new File::Pid({
32            file => "/tmp/$pid_path",
33    });
34    
35  if (my $pid = $pidfile->running ) {  if (my $pid = $pidfile->running ) {
36          die "$0 already running: $pid\n";          die "$0 already running: $pid\n";
# Line 27  if (my $pid = $pidfile->running ) { Line 38  if (my $pid = $pidfile->running ) {
38          $pidfile->remove;          $pidfile->remove;
39          $pidfile = new File::Pid;          $pidfile = new File::Pid;
40  }  }
 $pidfile->write;  
41  print STDERR "$0 using pid ",$pidfile->pid," file ",$pidfile->file,"\n";  print STDERR "$0 using pid ",$pidfile->pid," file ",$pidfile->file,"\n";
42    $pidfile->write;
43    
44  my $t_fmt = '%Y-%m-%d %H:%M:%S';  my $t_fmt = '%Y-%m-%d %H:%M:%S';
45    
# Line 40  my $beenThere = {}; Line 51  my $beenThere = {};
51    
52  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";
53  my $user = $Conf{SearchUser} || '';  my $user = $Conf{SearchUser} || '';
 my $index_path = $Conf{HyperEstraierIndex};  
 $index_path = $TopDir . '/' . $index_path;  
 $index_path =~ s#//#/#g;  
54    
55    my $index_node_url = $Conf{HyperEstraierIndex};
56    
57  my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });  my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });
58    
59  my %opt;  my %opt;
60    
61  if ( !getopts("cdm:v:i", \%opt ) ) {  if ( !getopts("cdm:v:ijf", \%opt ) ) {
62          print STDERR <<EOF;          print STDERR <<EOF;
63  usage: $0 [-c|-d] [-m num] [-v|-v level] [-i]  usage: $0 [-c|-d] [-m num] [-v|-v level] [-i|-j|-f]
64    
65  Options:  Options:
66          -c      create database on first use          -c      create database on first use
67          -d      delete database before import          -d      delete database before import
68          -m num  import just num increments for one host          -m num  import just num increments for one host
69          -v num  set verbosity (debug) level (default $debug)          -v num  set verbosity (debug) level (default $debug)
70          -i      update HyperEstraier full text index          -i      update Hyper Estraier full text index
71            -j      update full text, don't check existing files
72            -f      don't do anything with full text index
73    
74    Option -j is variation on -i. It will allow faster initial creation
75    of full-text index from existing database.
76    
77    Option -f will create database which is out of sync with full text index. You
78    will have to re-run $0 with -i to fix it.
79    
80  EOF  EOF
81          exit 1;          exit 1;
82  }  }
# Line 66  EOF Line 84  EOF
84  if ($opt{v}) {  if ($opt{v}) {
85          print "Debug level at $opt{v}\n";          print "Debug level at $opt{v}\n";
86          $debug = $opt{v};          $debug = $opt{v};
87    } elsif ($opt{f}) {
88            print "WARNING: disabling full-text index update. You need to re-run $0 -j !\n";
89            $index_node_url = undef;
90  }  }
91    
92  #---- subs ----  #---- subs ----
# Line 84  sub curr_time { Line 105  sub curr_time {
105  }  }
106    
107  my $hest_db;  my $hest_db;
108    my $hest_node;
109    
110  sub hest_update {  sub signal {
111            my($sig) = @_;
112          my ($host_id, $share_id, $num) = @_;          if ($hest_db) {
113                    print "\nCaught a SIG$sig--syncing database and shutting down\n";
114          print curr_time," updating HyperEstraier: files";                  $hest_db->sync();
115                    $hest_db->close();
116            }
117            exit(0);
118    }
119    
120          my $t = time();  $SIG{'INT'}  = \&signal;
121    $SIG{'QUIT'} = \&signal;
122    
123          my $where = '';  sub hest_update {
         if ($host_id && $share_id && $num) {  
                 $where = qq{  
                 WHERE  
                         hosts.id = ? AND  
                         shares.id = ? AND  
                         files.backupnum = ?  
                 };  
         }  
124    
125          my $sth = $dbh->prepare(qq{          my ($host_id, $share_id, $num) = @_;
                 SELECT  
                         files.id                        AS fid,  
                         hosts.name                      AS hname,  
                         shares.name                     AS sname,  
                         -- shares.share                 AS sharename,  
                         files.backupnum                 AS backupnum,  
                         -- files.name                   AS filename,  
                         files.path                      AS filepath,  
                         files.date                      AS date,  
                         files.type                      AS type,  
                         files.size                      AS size,  
                         files.shareid                   AS shareid,  
                         backups.date                    AS backup_date  
                 FROM files  
                         INNER JOIN shares       ON files.shareID=shares.ID  
                         INNER JOIN hosts        ON hosts.ID = shares.hostID  
                         INNER JOIN backups      ON backups.num = files.backupNum and backups.hostID = hosts.ID AND backups.shareID = shares.ID  
                 $where  
         });  
126    
127          $sth->execute(@_);          my $skip_check = $opt{j} && print STDERR "Skipping check for existing files -- this should be used only with initital import\n";
         my $results = $sth->rows;  
128    
129          if ($results == 0) {          unless (defined($index_node_url)) {
130                  print " no files\n";                  print STDERR "HyperEstraier support not enabled in configuration\n";
131                    $index_node_url = 0;
132                  return;                  return;
133          }          }
134    
135          my $dot = int($results / 15) || 1;          print curr_time," updating Hyper Estraier:";
   
         print " $results ($dot/#)";  
136    
137          sub fmt_date {          my $t = time();
                 my $t = shift || return;  
                 my $iso = BackupPC::Lib::timeStamp($t);  
                 $iso =~ s/\s/T/;  
                 return $iso;  
         }  
   
         my $max = int($results / $dot);  
138    
139          print " index $index_path...";          my $offset = 0;
140          use HyperEstraier;          my $added = 0;
         my $db = HyperEstraier::Database->new();  
141    
142  #       unless ($hest_db) {          print " opening index $index_node_url";
143  #               print " open reader";          if ($index_node_url) {
144  #               $hest_db = HyperEstraier::Database->new();                  $hest_node ||= Search::Estraier::Node->new($index_node_url);
145  #                  $hest_node->set_auth('admin', 'admin');
146  #       }                  print " via node URL";
147            } else {
148                    die "don't know how to use Hyper Estraier Index $index_node_url";
149            }
150    
151            my $results = 0;
152    
153          $db->open($index_path, $HyperEstraier::Database::DBWRITER | $HyperEstraier::Database::DBCREAT);          do {
154    
155          my $added = 0;                  my $where = '';
156                    my @data;
157                    if (defined($host_id) && defined($share_id) && defined($num)) {
158                            $where = qq{
159                            WHERE
160                                    hosts.id = ? AND
161                                    shares.id = ? AND
162                                    files.backupnum = ?
163                            };
164                            @data = ( $host_id, $share_id, $num );
165                    }
166    
167          while (my $row = $sth->fetchrow_hashref()) {                  my $limit = sprintf('LIMIT '.EST_CHUNK.' OFFSET %d', $offset);
168    
169                  my $fid = $row->{'fid'} || die "no fid?";                  my $sth = $dbh->prepare(qq{
170                  my $uri = 'file:///' . $fid;                          SELECT
171                                    files.id                        AS fid,
172                                    hosts.name                      AS hname,
173                                    shares.name                     AS sname,
174                                    -- shares.share                 AS sharename,
175                                    files.backupnum                 AS backupnum,
176                                    -- files.name                   AS filename,
177                                    files.path                      AS filepath,
178                                    files.date                      AS date,
179                                    files.type                      AS type,
180                                    files.size                      AS size,
181                                    files.shareid                   AS shareid,
182                                    backups.date                    AS backup_date
183                            FROM files
184                                    INNER JOIN shares       ON files.shareID=shares.ID
185                                    INNER JOIN hosts        ON hosts.ID = shares.hostID
186                                    INNER JOIN backups      ON backups.num = files.backupNum and backups.hostID = hosts.ID AND backups.shareID = shares.ID
187                            $where
188                            $limit
189                    });
190    
191                    $sth->execute(@data);
192                    $results = $sth->rows;
193    
194                    if ($results == 0) {
195                            print " - no new files\n";
196                            last;
197                    } else {
198                            print " - $results files: ";
199                    }
200    
201                  my $id = $db->uri_to_id($uri);                  sub fmt_date {
202                  next unless ($id == -1);                          my $t = shift || return;
203                            my $iso = BackupPC::Lib::timeStamp($t);
204                            $iso =~ s/\s/T/;
205                            return $iso;
206                    }
207    
208                  # create a document object                  while (my $row = $sth->fetchrow_hashref()) {
                 my $doc = HyperEstraier::Document->new;  
209    
210                  # add attributes to the document object                          my $fid = $row->{'fid'} || die "no fid?";
211                  $doc->add_attr('@uri', $uri);                          my $uri = 'file:///' . $fid;
212    
213                  foreach my $c (@{ $sth->{NAME} }) {                          unless ($skip_check) {
214                          $doc->add_attr($c, $row->{$c}) if ($row->{$c});                                  my $id = ($hest_db || $hest_node)->uri_to_id($uri);
215                                    next unless ($id == -1);
216                            }
217    
218                            # create a document object
219                            my $doc = Search::Estraier::Document->new;
220    
221                            # add attributes to the document object
222                            $doc->add_attr('@uri', $uri);
223    
224                            foreach my $c (@{ $sth->{NAME} }) {
225                                    print STDERR "attr $c = $row->{$c}\n" if ($debug > 2);
226                                    $doc->add_attr($c, $row->{$c}) if (defined($row->{$c}));
227                            }
228    
229                            #$doc->add_attr('@cdate', fmt_date($row->{'date'}));
230    
231                            # add the body text to the document object
232                            my $path = $row->{'filepath'};
233                            $doc->add_text($path);
234                            $path =~ s/(.)/$1 /g;
235                            $doc->add_hidden_text($path);
236    
237                            print STDERR $doc->dump_draft,"\n" if ($debug > 1);
238    
239                            # register the document object to the database
240                            if ($hest_node) {
241                                    $hest_node->put_doc($doc);
242                            } else {
243                                    die "not supported";
244                            }
245                            $added++;
246                  }                  }
247    
248                  #$doc->add_attr('@cdate', fmt_date($row->{'date'}));                  print " $added";
   
                 # add the body text to the document object  
                 my $path = $row->{'filepath'};  
                 $doc->add_text($path);  
                 $path =~ s/(.)/$1 /g;  
                 $doc->add_hidden_text($path);  
   
                 print STDERR $doc->dump_draft,"\n" if ($debug > 1);  
   
                 # register the document object to the database  
                 $db->put_doc($doc, $HyperEstraier::Database::PDCLEAN);  
   
                 $added++;  
                 if ($added % $dot == 0) {  
                         print "$max ";  
                         $max--;  
                 }  
249    
250          }                  $offset += EST_CHUNK;
251    
252          print "sync $added new files";          } while ($results == EST_CHUNK);
         $db->sync();  
         print " close";  
         $db->close();  
253    
254          my $dur = (time() - $t) || 1;          my $dur = (time() - $t) || 1;
255          printf(" [%.2f/s new %.2f/s dur: %s]\n",          printf(" [%.2f/s dur: %s]\n",
                 ( $results / $dur ),  
256                  ( $added / $dur ),                  ( $added / $dur ),
257                  fmt_time($dur)                  fmt_time($dur)
258          );          );
# Line 216  sub hest_update { Line 262  sub hest_update {
262    
263    
264  ## update index ##  ## update index ##
265  if ($opt{i} || ($index_path && ! -e $index_path)) {  if ( ( $opt{i} || $opt{j} ) && !$opt{c} ) {
266          # update all          # update all
267          print "force update of HyperEstraier index ";          print "force update of Hyper Estraier index ";
         print "importing existing data" unless (-e $index_path);  
268          print "by -i flag" if ($opt{i});          print "by -i flag" if ($opt{i});
269            print "by -j flag" if ($opt{j});
270          print "\n";          print "\n";
271          hest_update();          hest_update();
272  }  }
# Line 229  if ($opt{i} || ($index_path && ! -e $ind Line 275  if ($opt{i} || ($index_path && ! -e $ind
275  if ($opt{c}) {  if ($opt{c}) {
276          sub do_index {          sub do_index {
277                  my $index = shift || return;                  my $index = shift || return;
278                  my ($table,$col,$unique) = split(/_/, $index);                  my ($table,$col,$unique) = split(/:/, $index);
279                  $unique ||= '';                  $unique ||= '';
280                  $index =~ s/,/_/g;                  $index =~ s/\W+/_/g;
281                    print "$index on $table($col)" . ( $unique ? "u" : "" ) . " ";
282                  $dbh->do(qq{ create $unique index $index on $table($col) });                  $dbh->do(qq{ create $unique index $index on $table($col) });
283          }          }
284    
285          print "creating tables...\n";          print "creating tables...\n";
286          
287          $dbh->do(qq{          $dbh->do( qq{
288                  create table hosts (                  create table hosts (
289                          ID      SERIAL          PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
290                          name    VARCHAR(30)     NOT NULL,                          name    VARCHAR(30)     NOT NULL,
291                          IP      VARCHAR(15)                          IP      VARCHAR(15)
292                  );                              );            
293          });  
                 
         $dbh->do(qq{  
294                  create table shares (                  create table shares (
295                          ID      SERIAL          PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
296                          hostID  INTEGER         NOT NULL references hosts(id),                          hostID  INTEGER         NOT NULL references hosts(id),
297                          name    VARCHAR(30)     NOT NULL,                          name    VARCHAR(30)     NOT NULL,
298                          share   VARCHAR(200)    NOT NULL,                          share   VARCHAR(200)    NOT NULL
                         localpath VARCHAR(200)        
299                  );                              );            
300          });  
301                            create table dvds (
302          $dbh->do(qq{                          ID      SERIAL          PRIMARY KEY,
303                            num     INTEGER         NOT NULL,
304                            name    VARCHAR(255)    NOT NULL,
305                            mjesto  VARCHAR(255)
306                    );
307    
308                  create table backups (                  create table backups (
309                            id      serial,
310                          hostID  INTEGER         NOT NULL references hosts(id),                          hostID  INTEGER         NOT NULL references hosts(id),
311                          num     INTEGER         NOT NULL,                          num     INTEGER         NOT NULL,
312                          date    integer         NOT NULL,                          date    integer         NOT NULL,
313                          type    CHAR(4)         not null,                          type    CHAR(4)         not null,
314                          shareID integer         not null references shares(id),                          shareID integer         not null references shares(id),
315                          size    integer         not null,                          size    bigint          not null,
316                          PRIMARY KEY(hostID, num, shareID)                          inc_size bigint         not null default -1,
317                            inc_deleted boolean     default false,
318                            parts   integer         not null default 1,
319                            PRIMARY KEY(id)
320                  );                              );            
         });  
321    
322          #do_index('backups_hostid,num_unique');                  create table files (
323                            ID              SERIAL,
324                            shareID         INTEGER NOT NULL references shares(id),
325                            backupNum       INTEGER NOT NULL,
326                            name            VARCHAR(255) NOT NULL,
327                            path            VARCHAR(255) NOT NULL,
328                            date            integer NOT NULL,
329                            type            INTEGER NOT NULL,
330                            size            bigint  NOT NULL,
331                            primary key(id)
332                    );
333    
334          $dbh->do(qq{                  create table archive (
335                  create table dvds (                          id              serial,
336                          ID      SERIAL          PRIMARY KEY,                          dvd_nr          int not null,
337                          num     INTEGER         NOT NULL,                          total_size      bigint default -1,
338                          name    VARCHAR(255)    NOT NULL,                          note            text,
339                          mjesto  VARCHAR(255)                          username        varchar(20) not null,
340                            date            timestamp default now(),
341                            primary key(id)
342                    );      
343    
344                    create table archive_backup (
345                            archive_id      int not null references archive(id) on delete cascade,
346                            backup_id       int not null references backups(id),
347                            primary key(archive_id, backup_id)
348                  );                  );
         });  
349    
350          $dbh->do(qq{                      create table archive_burned (
351                  create table files (                          archive_id      int references archive(id),
352                          ID      SERIAL          PRIMARY KEY,                            date            timestamp default now(),
353                          shareID INTEGER         NOT NULL references shares(id),                          part            int not null default 1,
354                          backupNum  INTEGER      NOT NULL,                          copy            int not null default 1,
355                          name       VARCHAR(255) NOT NULL,                          iso_size bigint default -1
356                          path       VARCHAR(255) NOT NULL,                  );
357                          date       integer      NOT NULL,  
358                          type       INTEGER      NOT NULL,                  create table backup_parts (
359                          size       INTEGER      NOT NULL,                          id serial,
360                          dvdid      INTEGER      references dvds(id)                              backup_id int references backups(id),
361                            part_nr int not null check (part_nr > 0),
362                            tar_size bigint not null check (tar_size > 0),
363                            size bigint not null check (size > 0),
364                            md5 text not null,
365                            items int not null check (items > 0),
366                            date timestamp default now(),
367                            primary key(id)
368                  );                  );
369          });          });
370    
371          print "creating indexes:";          print "creating indexes: ";
372    
373          foreach my $index (qw(          foreach my $index (qw(
374                  hosts_name                  hosts:name
375                  backups_hostID                  backups:hostID
376                  backups_num                  backups:num
377                  shares_hostID                  backups:shareID
378                  shares_name                  shares:hostID
379                  files_shareID                  shares:name
380                  files_path                  files:shareID
381                  files_name                  files:path
382                  files_date                  files:name
383                  files_size                  files:date
384                    files:size
385                    archive:dvd_nr
386                    archive_burned:archive_id
387                    backup_parts:backup_id,part_nr
388          )) {          )) {
                 print " $index";  
389                  do_index($index);                  do_index($index);
390          }          }
391    
392            print " creating sequence: ";
393            foreach my $seq (qw/dvd_nr/) {
394                    print "$seq ";
395                    $dbh->do( qq{ CREATE SEQUENCE $seq } );
396            }
397    
398    
399          print "...\n";          print "...\n";
400    
401          $dbh->commit;          $dbh->commit;
# Line 352  WHERE hostID=? AND num=? AND shareid=? Line 439  WHERE hostID=? AND num=? AND shareid=?
439    
440  $sth->{insert_backups} = $dbh->prepare(qq{  $sth->{insert_backups} = $dbh->prepare(qq{
441  INSERT INTO backups (hostID, num, date, type, shareid, size)  INSERT INTO backups (hostID, num, date, type, shareid, size)
442  VALUES (?,?,?,?,?,?)  VALUES (?,?,?,?,?,-1)
443    });
444    
445    $sth->{update_backups_size} = $dbh->prepare(qq{
446    UPDATE backups SET size = ?
447    WHERE hostID = ? and num = ? and date = ? and type =? and shareid = ?
448  });  });
449    
450  $sth->{insert_files} = $dbh->prepare(qq{  $sth->{insert_files} = $dbh->prepare(qq{
# Line 361  INSERT INTO files Line 453  INSERT INTO files
453          VALUES (?,?,?,?,?,?,?)          VALUES (?,?,?,?,?,?,?)
454  });  });
455    
456  foreach my $host_key (keys %{$hosts}) {  my @hosts = keys %{$hosts};
457    my $host_nr = 0;
458    
459    foreach my $host_key (@hosts) {
460    
461          my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";          my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";
462    
# Line 376  foreach my $host_key (keys %{$hosts}) { Line 471  foreach my $host_key (keys %{$hosts}) {
471                  $hostID = $dbh->last_insert_id(undef,undef,'hosts',undef);                  $hostID = $dbh->last_insert_id(undef,undef,'hosts',undef);
472          }          }
473    
474          print "host ".$hosts->{$host_key}->{'host'}.": ";          $host_nr++;
475            print "host ", $hosts->{$host_key}->{'host'}, " [",
476                    $host_nr, "/", ($#hosts + 1), "]: ";
477    
478          # get backups for a host          # get backups for a host
479          my @backups = $bpc->BackupInfoRead($hostname);          my @backups = $bpc->BackupInfoRead($hostname);
# Line 418  foreach my $host_key (keys %{$hosts}) { Line 515  foreach my $host_key (keys %{$hosts}) {
515                          # dump some log                          # dump some log
516                          print curr_time," ", $share;                          print curr_time," ", $share;
517    
                         my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);  
   
518                          $sth->{insert_backups}->execute(                          $sth->{insert_backups}->execute(
519                                  $hostID,                                  $hostID,
520                                  $backupNum,                                  $backupNum,
521                                  $backup->{'endTime'},                                  $backup->{'endTime'},
522                                  $backup->{'type'},                                  substr($backup->{'type'},0,4),
523                                  $shareID,                                  $shareID,
                                 $size,  
524                          );                          );
525    
526                          print " commit";                          my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);
527                          $dbh->commit();  
528                            eval {
529                                    $sth->{update_backups_size}->execute(
530                                            $size,
531                                            $hostID,
532                                            $backupNum,
533                                            $backup->{'endTime'},
534                                            substr($backup->{'type'},0,4),
535                                            $shareID,
536                                    );
537                                    print " commit";
538                                    $dbh->commit();
539                            };
540                            if ($@) {
541                                    print " rollback";
542                                    $dbh->rollback();
543                            }
544    
545                          my $dur = (time() - $t) || 1;                          my $dur = (time() - $t) || 1;
546                          printf(" %d/%d files %d/%d dirs %0.2f MB [%.2f/s dur: %s]\n",                          printf(" %d/%d files %d/%d dirs %0.2f MB [%.2f/s dur: %s]\n",
# Line 440  foreach my $host_key (keys %{$hosts}) { Line 550  foreach my $host_key (keys %{$hosts}) {
550                                  fmt_time($dur)                                  fmt_time($dur)
551                          );                          );
552    
553                          hest_update($hostID, $shareID, $backupNum);                          hest_update($hostID, $shareID, $backupNum) if ($nf + $nd > 0);
554                  }                  }
555    
556          }          }
# Line 469  sub getShareID() { Line 579  sub getShareID() {
579    
580          $sth->{insert_share} ||= $dbh->prepare(qq{          $sth->{insert_share} ||= $dbh->prepare(qq{
581                  INSERT INTO shares                  INSERT INTO shares
582                          (hostID,name,share,localpath)                          (hostID,name,share)
583                  VALUES (?,?,?,?)                  VALUES (?,?,?)
584          });          });
585    
586          my $drop_down = $hostname . '/' . $share;          my $drop_down = $hostname . '/' . $share;
587          $drop_down =~ s#//+#/#g;          $drop_down =~ s#//+#/#g;
588    
589          $sth->{insert_share}->execute($hostID,$share, $drop_down ,undef);          $sth->{insert_share}->execute($hostID,$share, $drop_down);
590          return $dbh->last_insert_id(undef,undef,'shares',undef);          return $dbh->last_insert_id(undef,undef,'shares',undef);
591  }  }
592    
# Line 493  sub found_in_db { Line 603  sub found_in_db {
603                  SELECT 1 FROM files                  SELECT 1 FROM files
604                  WHERE shareID = ? and                  WHERE shareID = ? and
605                          path = ? and                          path = ? and
606                          date = ? and                          size = ? and
607                          size = ?                          ( date = ? or date = ? or date = ? )
608                  LIMIT 1                  LIMIT 1
609          });          });
610    
611          my @param = ($shareID,$path,$date,$size);          my @param = ($shareID,$path,$size,$date, $date-$dst_offset, $date+$dst_offset);
612          $sth->{file_in_db}->execute(@param);          $sth->{file_in_db}->execute(@param);
613          my $rows = $sth->{file_in_db}->rows;          my $rows = $sth->{file_in_db}->rows;
614          print STDERR "## found_in_db($shareID,$path,$date,$size) ",( $rows ? '+' : '-' ), join(" ",@param), "\n" if ($debug >= 3);          print STDERR "## found_in_db($shareID,$path,$date,$size) ",( $rows ? '+' : '-' ), join(" ",@param), "\n" if ($debug >= 3);
# Line 548  sub recurseDir($$$$$$$$) { Line 658  sub recurseDir($$$$$$$$) {
658                                  $filesInBackup->{$path_key}->{'size'}                                  $filesInBackup->{$path_key}->{'size'}
659                          ));                          ));
660    
661                            my $key_dst_prev = join(" ", (
662                                    $shareID,
663                                    $dir,
664                                    $path_key,
665                                    $filesInBackup->{$path_key}->{'mtime'} - $dst_offset,
666                                    $filesInBackup->{$path_key}->{'size'}
667                            ));
668    
669                            my $key_dst_next = join(" ", (
670                                    $shareID,
671                                    $dir,
672                                    $path_key,
673                                    $filesInBackup->{$path_key}->{'mtime'} + $dst_offset,
674                                    $filesInBackup->{$path_key}->{'size'}
675                            ));
676    
677                          my $found;                          my $found;
678                          if (! defined($beenThere->{$key}) && ! ($found = found_in_db($key, @data)) ) {                          if (
679                                    ! defined($beenThere->{$key}) &&
680                                    ! defined($beenThere->{$key_dst_prev}) &&
681                                    ! defined($beenThere->{$key_dst_next}) &&
682                                    ! ($found = found_in_db($key, @data))
683                            ) {
684                                  print STDERR "# key: $key [", $beenThere->{$key},"]" if ($debug >= 2);                                  print STDERR "# key: $key [", $beenThere->{$key},"]" if ($debug >= 2);
685    
686                                  if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {                                  if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {

Legend:
Removed from v.90  
changed lines
  Added in v.305

  ViewVC Help
Powered by ViewVC 1.1.26