/[BackupPC]/trunk/bin/BackupPC_updatedb
This is repository of my old source code which isn't updated any more. Go to git.rot13.org for current projects!
ViewVC logotype

Diff of /trunk/bin/BackupPC_updatedb

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

revision 97 by dpavlin, Tue Aug 30 09:55:55 2005 UTC revision 250 by dpavlin, Sun Dec 11 14:27:45 2005 UTC
# Line 11  use Getopt::Std; Line 11  use Getopt::Std;
11  use Time::HiRes qw/time/;  use Time::HiRes qw/time/;
12  use File::Pid;  use File::Pid;
13  use POSIX qw/strftime/;  use POSIX qw/strftime/;
14    use BackupPC::SearchLib;
15    use Cwd qw/abs_path/;
16    
17  use constant BPC_FTYPE_DIR => 5;  use constant BPC_FTYPE_DIR => 5;
18  use constant EST_SYNC_EVERY => 10000;  use constant EST_CHUNK => 100000;
19    
20    # daylight saving time change offset for 1h
21    my $dst_offset = 60 * 60;
22    
23  my $debug = 0;  my $debug = 0;
24  $|=1;  $|=1;
25    
26  my $start_t = time();  my $start_t = time();
27    
28  my $pidfile = new File::Pid;  my $pid_path = abs_path($0);
29    $pid_path =~ s/\W+/_/g;
30    
31    my $pidfile = new File::Pid({
32            file => "/tmp/$pid_path",
33    });
34    
35  if (my $pid = $pidfile->running ) {  if (my $pid = $pidfile->running ) {
36          die "$0 already running: $pid\n";          die "$0 already running: $pid\n";
# Line 28  if (my $pid = $pidfile->running ) { Line 38  if (my $pid = $pidfile->running ) {
38          $pidfile->remove;          $pidfile->remove;
39          $pidfile = new File::Pid;          $pidfile = new File::Pid;
40  }  }
 $pidfile->write;  
41  print STDERR "$0 using pid ",$pidfile->pid," file ",$pidfile->file,"\n";  print STDERR "$0 using pid ",$pidfile->pid," file ",$pidfile->file,"\n";
42    $pidfile->write;
43    
44  my $t_fmt = '%Y-%m-%d %H:%M:%S';  my $t_fmt = '%Y-%m-%d %H:%M:%S';
45    
# Line 41  my $beenThere = {}; Line 51  my $beenThere = {};
51    
52  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";
53  my $user = $Conf{SearchUser} || '';  my $user = $Conf{SearchUser} || '';
 my $index_path = $Conf{HyperEstraierIndex};  
 $index_path = $TopDir . '/' . $index_path;  
 $index_path =~ s#//#/#g;  
54    
55    my $use_hest = $Conf{HyperEstraierIndex};
56    my ($index_path, $index_node_url) = BackupPC::SearchLib::getHyperEstraier_url($use_hest);
57    
58  my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });  my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });
59    
60  my %opt;  my %opt;
61    
62  if ( !getopts("cdm:v:i", \%opt ) ) {  if ( !getopts("cdm:v:ijf", \%opt ) ) {
63          print STDERR <<EOF;          print STDERR <<EOF;
64  usage: $0 [-c|-d] [-m num] [-v|-v level] [-i]  usage: $0 [-c|-d] [-m num] [-v|-v level] [-i|-j|-f]
65    
66  Options:  Options:
67          -c      create database on first use          -c      create database on first use
68          -d      delete database before import          -d      delete database before import
69          -m num  import just num increments for one host          -m num  import just num increments for one host
70          -v num  set verbosity (debug) level (default $debug)          -v num  set verbosity (debug) level (default $debug)
71          -i      update HyperEstraier full text index          -i      update Hyper Estraier full text index
72            -j      update full text, don't check existing files
73            -f      don't do anything with full text index
74    
75    Option -j is variation on -i. It will allow faster initial creation
76    of full-text index from existing database.
77    
78    Option -f will create database which is out of sync with full text index. You
79    will have to re-run $0 with -i to fix it.
80    
81  EOF  EOF
82          exit 1;          exit 1;
83  }  }
# Line 67  EOF Line 85  EOF
85  if ($opt{v}) {  if ($opt{v}) {
86          print "Debug level at $opt{v}\n";          print "Debug level at $opt{v}\n";
87          $debug = $opt{v};          $debug = $opt{v};
88    } elsif ($opt{f}) {
89            print "WARNING: disabling full-text index update. You need to re-run $0 -j !\n";
90            ($use_hest, $index_path, $index_node_url) = (undef, undef, undef);
91  }  }
92    
93  #---- subs ----  #---- subs ----
# Line 85  sub curr_time { Line 106  sub curr_time {
106  }  }
107    
108  my $hest_db;  my $hest_db;
109    my $hest_node;
110    
111  sub signal {  sub signal {
112          my($sig) = @_;          my($sig) = @_;
# Line 103  sub hest_update { Line 125  sub hest_update {
125    
126          my ($host_id, $share_id, $num) = @_;          my ($host_id, $share_id, $num) = @_;
127    
128          print curr_time," updating HyperEstraier: select files";          my $skip_check = $opt{j} && print STDERR "Skipping check for existing files -- this should be used only with initital import\n";
   
         my $t = time();  
129    
130          my $where = '';          unless (defined($use_hest)) {
131          if ($host_id && $share_id && $num) {                  print STDERR "HyperEstraier support not enabled in configuration\n";
132                  $where = qq{                  $use_hest = 0;
                 WHERE  
                         hosts.id = ? AND  
                         shares.id = ? AND  
                         files.backupnum = ?  
                 };  
         }  
   
         my $sth = $dbh->prepare(qq{  
                 SELECT  
                         files.id                        AS fid,  
                         hosts.name                      AS hname,  
                         shares.name                     AS sname,  
                         -- shares.share                 AS sharename,  
                         files.backupnum                 AS backupnum,  
                         -- files.name                   AS filename,  
                         files.path                      AS filepath,  
                         files.date                      AS date,  
                         files.type                      AS type,  
                         files.size                      AS size,  
                         files.shareid                   AS shareid,  
                         backups.date                    AS backup_date  
                 FROM files  
                         INNER JOIN shares       ON files.shareID=shares.ID  
                         INNER JOIN hosts        ON hosts.ID = shares.hostID  
                         INNER JOIN backups      ON backups.num = files.backupNum and backups.hostID = hosts.ID AND backups.shareID = shares.ID  
                 $where  
         });  
   
         $sth->execute(@_);  
         my $results = $sth->rows;  
   
         if ($results == 0) {  
                 print " - no files, skipping\n";  
133                  return;                  return;
134          }          }
135    
136          my $dot = int($results / 15) || 1;          return unless($use_hest);
137    
138          print " $results ($dot/#)";          print curr_time," updating HyperEstraier:";
139    
140          sub fmt_date {          my $t = time();
                 my $t = shift || return;  
                 my $iso = BackupPC::Lib::timeStamp($t);  
                 $iso =~ s/\s/T/;  
                 return $iso;  
         }  
   
         my $max = int($results / $dot);  
141    
142          print ", opening index $index_path...";          my $offset = 0;
143          use HyperEstraier;          my $added = 0;
         my $db = HyperEstraier::Database->new();  
144    
145  #       unless ($hest_db) {          print " opening index $use_hest";
146  #               print " open reader";          if ($index_path) {
147  #               $hest_db = HyperEstraier::Database->new();                  $hest_db = HyperEstraier::Database->new();
148  #                  $hest_db->open($TopDir . $index_path, $HyperEstraier::Database::DBWRITER | $HyperEstraier::Database::DBCREAT);
149  #       }                  print " directly";
150            } elsif ($index_node_url) {
151                    $hest_node ||= HyperEstraier::Node->new($index_node_url);
152                    $hest_node->set_auth('admin', 'admin');
153                    print " via node URL";
154            } else {
155                    die "don't know how to use HyperEstraier Index $use_hest";
156            }
157            print " increment is " . EST_CHUNK . " files:";
158    
159            my $results = 0;
160    
161          $db->open($index_path, $HyperEstraier::Database::DBWRITER | $HyperEstraier::Database::DBCREAT);          do {
162    
163          my $added = 0;                  my $where = '';
164                    my @data;
165                    if (defined($host_id) && defined($share_id) && defined($num)) {
166                            $where = qq{
167                            WHERE
168                                    hosts.id = ? AND
169                                    shares.id = ? AND
170                                    files.backupnum = ?
171                            };
172                            @data = ( $host_id, $share_id, $num );
173                    }
174    
175          while (my $row = $sth->fetchrow_hashref()) {                  my $limit = sprintf('LIMIT '.EST_CHUNK.' OFFSET %d', $offset);
176    
177                  my $fid = $row->{'fid'} || die "no fid?";                  my $sth = $dbh->prepare(qq{
178                  my $uri = 'file:///' . $fid;                          SELECT
179                                    files.id                        AS fid,
180                                    hosts.name                      AS hname,
181                                    shares.name                     AS sname,
182                                    -- shares.share                 AS sharename,
183                                    files.backupnum                 AS backupnum,
184                                    -- files.name                   AS filename,
185                                    files.path                      AS filepath,
186                                    files.date                      AS date,
187                                    files.type                      AS type,
188                                    files.size                      AS size,
189                                    files.shareid                   AS shareid,
190                                    backups.date                    AS backup_date
191                            FROM files
192                                    INNER JOIN shares       ON files.shareID=shares.ID
193                                    INNER JOIN hosts        ON hosts.ID = shares.hostID
194                                    INNER JOIN backups      ON backups.num = files.backupNum and backups.hostID = hosts.ID AND backups.shareID = shares.ID
195                            $where
196                            $limit
197                    });
198    
199                    $sth->execute(@data);
200                    $results = $sth->rows;
201    
202                    if ($results == 0) {
203                            print " - no new files\n";
204                            last;
205                    }
206    
207                  my $id = $db->uri_to_id($uri);                  sub fmt_date {
208                  next unless ($id == -1);                          my $t = shift || return;
209                            my $iso = BackupPC::Lib::timeStamp($t);
210                            $iso =~ s/\s/T/;
211                            return $iso;
212                    }
213    
214                  # create a document object                  while (my $row = $sth->fetchrow_hashref()) {
                 my $doc = HyperEstraier::Document->new;  
215    
216                  # add attributes to the document object                          my $fid = $row->{'fid'} || die "no fid?";
217                  $doc->add_attr('@uri', $uri);                          my $uri = 'file:///' . $fid;
218    
219                  foreach my $c (@{ $sth->{NAME} }) {                          unless ($skip_check) {
220                          $doc->add_attr($c, $row->{$c}) if ($row->{$c});                                  my $id = ($hest_db || $hest_node)->uri_to_id($uri);
221                                    next unless ($id == -1);
222                            }
223    
224                            # create a document object
225                            my $doc = HyperEstraier::Document->new;
226    
227                            # add attributes to the document object
228                            $doc->add_attr('@uri', $uri);
229    
230                            foreach my $c (@{ $sth->{NAME} }) {
231                                    $doc->add_attr($c, $row->{$c}) if (defined($row->{$c}));
232                            }
233    
234                            #$doc->add_attr('@cdate', fmt_date($row->{'date'}));
235    
236                            # add the body text to the document object
237                            my $path = $row->{'filepath'};
238                            $doc->add_text($path);
239                            $path =~ s/(.)/$1 /g;
240                            $doc->add_hidden_text($path);
241    
242                            print STDERR $doc->dump_draft,"\n" if ($debug > 1);
243    
244                            # register the document object to the database
245                            if ($hest_db) {
246                                    $hest_db->put_doc($doc, $HyperEstraier::Database::PDCLEAN);
247                            } elsif ($hest_node) {
248                                    $hest_node->put_doc($doc);
249                            } else {
250                                    die "not supported";
251                            }
252                            $added++;
253                  }                  }
254    
255                  #$doc->add_attr('@cdate', fmt_date($row->{'date'}));                  print " $added";
256                    $hest_db->sync() if ($index_path);
257    
258                  # add the body text to the document object                  $offset += EST_CHUNK;
                 my $path = $row->{'filepath'};  
                 $doc->add_text($path);  
                 $path =~ s/(.)/$1 /g;  
                 $doc->add_hidden_text($path);  
   
                 print STDERR $doc->dump_draft,"\n" if ($debug > 1);  
   
                 # register the document object to the database  
                 $db->put_doc($doc, $HyperEstraier::Database::PDCLEAN);  
   
                 $added++;  
                 if ($added % $dot == 0) {  
                         print "$max ";  
                         $max--;  
                 }  
259    
260                  if ($added % EST_SYNC_EVERY == 0) {          } while ($results == EST_CHUNK);
                         print "sync ";  
                         $db->sync();  
                 }  
261    
262            if ($index_path) {
263                    print ", close";
264                    $hest_db->close();
265          }          }
266    
         print "sync $added new files";  
         $db->sync();  
         print ", close";  
         $db->close();  
   
267          my $dur = (time() - $t) || 1;          my $dur = (time() - $t) || 1;
268          printf(" [%.2f/s new %.2f/s dur: %s]\n",          printf(" [%.2f/s dur: %s]\n",
                 ( $results / $dur ),  
269                  ( $added / $dur ),                  ( $added / $dur ),
270                  fmt_time($dur)                  fmt_time($dur)
271          );          );
# Line 235  sub hest_update { Line 275  sub hest_update {
275    
276    
277  ## update index ##  ## update index ##
278  if (($opt{i} || ($index_path && ! -e $index_path)) && !$opt{c}) {  if (($opt{i} || $opt{j} || ($index_path && ! -e $TopDir . $index_path)) && !$opt{c}) {
279          # update all          # update all
280          print "force update of HyperEstraier index ";          print "force update of HyperEstraier index ";
281          print "importing existing data" unless (-e $index_path);          print "importing existing data" unless (-e $TopDir . $index_path);
282          print "by -i flag" if ($opt{i});          print "by -i flag" if ($opt{i});
283            print "by -j flag" if ($opt{j});
284          print "\n";          print "\n";
285          hest_update();          hest_update();
286  }  }
# Line 248  if (($opt{i} || ($index_path && ! -e $in Line 289  if (($opt{i} || ($index_path && ! -e $in
289  if ($opt{c}) {  if ($opt{c}) {
290          sub do_index {          sub do_index {
291                  my $index = shift || return;                  my $index = shift || return;
292                  my ($table,$col,$unique) = split(/_/, $index);                  my ($table,$col,$unique) = split(/:/, $index);
293                  $unique ||= '';                  $unique ||= '';
294                  $index =~ s/,/_/g;                  $index =~ s/\W+/_/g;
295                    print "$index on $table($col)" . ( $unique ? "u" : "" ) . " ";
296                  $dbh->do(qq{ create $unique index $index on $table($col) });                  $dbh->do(qq{ create $unique index $index on $table($col) });
297          }          }
298    
299          print "creating tables...\n";          print "creating tables...\n";
300          
301          $dbh->do(qq{          $dbh->do( qq{
302                  create table hosts (                  create table hosts (
303                          ID      SERIAL          PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
304                          name    VARCHAR(30)     NOT NULL,                          name    VARCHAR(30)     NOT NULL,
305                          IP      VARCHAR(15)                          IP      VARCHAR(15)
306                  );                              );            
307          });  
                 
         $dbh->do(qq{  
308                  create table shares (                  create table shares (
309                          ID      SERIAL          PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
310                          hostID  INTEGER         NOT NULL references hosts(id),                          hostID  INTEGER         NOT NULL references hosts(id),
311                          name    VARCHAR(30)     NOT NULL,                          name    VARCHAR(30)     NOT NULL,
312                          share   VARCHAR(200)    NOT NULL,                          share   VARCHAR(200)    NOT NULL
                         localpath VARCHAR(200)        
313                  );                              );            
314          });  
315                            create table dvds (
316          $dbh->do(qq{                          ID      SERIAL          PRIMARY KEY,
317                            num     INTEGER         NOT NULL,
318                            name    VARCHAR(255)    NOT NULL,
319                            mjesto  VARCHAR(255)
320                    );
321    
322                  create table backups (                  create table backups (
323                            id      serial,
324                          hostID  INTEGER         NOT NULL references hosts(id),                          hostID  INTEGER         NOT NULL references hosts(id),
325                          num     INTEGER         NOT NULL,                          num     INTEGER         NOT NULL,
326                          date    integer         NOT NULL,                          date    integer         NOT NULL,
327                          type    CHAR(4)         not null,                          type    CHAR(4)         not null,
328                          shareID integer         not null references shares(id),                          shareID integer         not null references shares(id),
329                          size    integer         not null,                          size    bigint          not null,
330                          PRIMARY KEY(hostID, num, shareID)                          inc_size bigint         not null default -1,
331                            inc_deleted boolean     default false,
332                            parts   integer         not null default 1,
333                            PRIMARY KEY(id)
334                  );                              );            
         });  
335    
336          #do_index('backups_hostid,num_unique');                  create table files (
337                            ID              SERIAL,
338                            shareID         INTEGER NOT NULL references shares(id),
339                            backupNum       INTEGER NOT NULL,
340                            name            VARCHAR(255) NOT NULL,
341                            path            VARCHAR(255) NOT NULL,
342                            date            integer NOT NULL,
343                            type            INTEGER NOT NULL,
344                            size            bigint  NOT NULL,
345                            primary key(id)
346                    );
347    
348          $dbh->do(qq{                  create table archive (
349                  create table dvds (                          id              serial,
350                          ID      SERIAL          PRIMARY KEY,                          dvd_nr          int not null,
351                          num     INTEGER         NOT NULL,                          total_size      bigint default -1,
352                          name    VARCHAR(255)    NOT NULL,                          note            text,
353                          mjesto  VARCHAR(255)                          username        varchar(20) not null,
354                            date            timestamp default now(),
355                            primary key(id)
356                    );      
357    
358                    create table archive_backup (
359                            archive_id      int not null references archive(id) on delete cascade,
360                            backup_id       int not null references backups(id),
361                            primary key(archive_id, backup_id)
362                  );                  );
         });  
363    
364          $dbh->do(qq{                      create table archive_burned (
365                  create table files (                          archive_id      int references archive(id),
366                          ID      SERIAL          PRIMARY KEY,                            date            timestamp default now(),
367                          shareID INTEGER         NOT NULL references shares(id),                          part            int not null default 1,
368                          backupNum  INTEGER      NOT NULL,                          copy            int not null default 1,
369                          name       VARCHAR(255) NOT NULL,                          iso_size bigint default -1
370                          path       VARCHAR(255) NOT NULL,                  );
371                          date       integer      NOT NULL,  
372                          type       INTEGER      NOT NULL,                  create table backup_parts (
373                          size       INTEGER      NOT NULL,                          id serial,
374                          dvdid      INTEGER      references dvds(id)                              backup_id int references backups(id),
375                            part_nr int not null check (part_nr > 0),
376                            tar_size bigint not null check (tar_size > 0),
377                            size bigint not null check (size > 0),
378                            md5 text not null,
379                            items int not null check (items > 0),
380                            date timestamp default now(),
381                            primary key(id)
382                  );                  );
383          });          });
384    
385          print "creating indexes:";          print "creating indexes: ";
386    
387          foreach my $index (qw(          foreach my $index (qw(
388                  hosts_name                  hosts:name
389                  backups_hostID                  backups:hostID
390                  backups_num                  backups:num
391                  shares_hostID                  backups:shareID
392                  shares_name                  shares:hostID
393                  files_shareID                  shares:name
394                  files_path                  files:shareID
395                  files_name                  files:path
396                  files_date                  files:name
397                  files_size                  files:date
398                    files:size
399                    archive:dvd_nr
400                    archive_burned:archive_id
401                    backup_parts:backup_id,part_nr
402          )) {          )) {
                 print " $index";  
403                  do_index($index);                  do_index($index);
404          }          }
405    
406            print " creating sequence: ";
407            foreach my $seq (qw/dvd_nr/) {
408                    print "$seq ";
409                    $dbh->do( qq{ CREATE SEQUENCE $seq } );
410            }
411    
412    
413          print "...\n";          print "...\n";
414    
415          $dbh->commit;          $dbh->commit;
# Line 371  WHERE hostID=? AND num=? AND shareid=? Line 453  WHERE hostID=? AND num=? AND shareid=?
453    
454  $sth->{insert_backups} = $dbh->prepare(qq{  $sth->{insert_backups} = $dbh->prepare(qq{
455  INSERT INTO backups (hostID, num, date, type, shareid, size)  INSERT INTO backups (hostID, num, date, type, shareid, size)
456  VALUES (?,?,?,?,?,?)  VALUES (?,?,?,?,?,-1)
457    });
458    
459    $sth->{update_backups_size} = $dbh->prepare(qq{
460    UPDATE backups SET size = ?
461    WHERE hostID = ? and num = ? and date = ? and type =? and shareid = ?
462  });  });
463    
464  $sth->{insert_files} = $dbh->prepare(qq{  $sth->{insert_files} = $dbh->prepare(qq{
# Line 380  INSERT INTO files Line 467  INSERT INTO files
467          VALUES (?,?,?,?,?,?,?)          VALUES (?,?,?,?,?,?,?)
468  });  });
469    
470  foreach my $host_key (keys %{$hosts}) {  my @hosts = keys %{$hosts};
471    my $host_nr = 0;
472    
473    foreach my $host_key (@hosts) {
474    
475          my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";          my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";
476    
# Line 395  foreach my $host_key (keys %{$hosts}) { Line 485  foreach my $host_key (keys %{$hosts}) {
485                  $hostID = $dbh->last_insert_id(undef,undef,'hosts',undef);                  $hostID = $dbh->last_insert_id(undef,undef,'hosts',undef);
486          }          }
487    
488          print "host ".$hosts->{$host_key}->{'host'}.": ";          $host_nr++;
489            print "host ", $hosts->{$host_key}->{'host'}, " [",
490                    $host_nr, "/", ($#hosts + 1), "]: ";
491    
492          # get backups for a host          # get backups for a host
493          my @backups = $bpc->BackupInfoRead($hostname);          my @backups = $bpc->BackupInfoRead($hostname);
# Line 437  foreach my $host_key (keys %{$hosts}) { Line 529  foreach my $host_key (keys %{$hosts}) {
529                          # dump some log                          # dump some log
530                          print curr_time," ", $share;                          print curr_time," ", $share;
531    
                         my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);  
   
532                          $sth->{insert_backups}->execute(                          $sth->{insert_backups}->execute(
533                                  $hostID,                                  $hostID,
534                                  $backupNum,                                  $backupNum,
535                                  $backup->{'endTime'},                                  $backup->{'endTime'},
536                                  $backup->{'type'},                                  substr($backup->{'type'},0,4),
537                                  $shareID,                                  $shareID,
                                 $size,  
538                          );                          );
539    
540                          print " commit";                          my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);
541                          $dbh->commit();  
542                            eval {
543                                    $sth->{update_backups_size}->execute(
544                                            $size,
545                                            $hostID,
546                                            $backupNum,
547                                            $backup->{'endTime'},
548                                            substr($backup->{'type'},0,4),
549                                            $shareID,
550                                    );
551                                    print " commit";
552                                    $dbh->commit();
553                            };
554                            if ($@) {
555                                    print " rollback";
556                                    $dbh->rollback();
557                            }
558    
559                          my $dur = (time() - $t) || 1;                          my $dur = (time() - $t) || 1;
560                          printf(" %d/%d files %d/%d dirs %0.2f MB [%.2f/s dur: %s]\n",                          printf(" %d/%d files %d/%d dirs %0.2f MB [%.2f/s dur: %s]\n",
# Line 459  foreach my $host_key (keys %{$hosts}) { Line 564  foreach my $host_key (keys %{$hosts}) {
564                                  fmt_time($dur)                                  fmt_time($dur)
565                          );                          );
566    
567                          hest_update($hostID, $shareID, $backupNum);                          hest_update($hostID, $shareID, $backupNum) if ($nf + $nd > 0);
568                  }                  }
569    
570          }          }
# Line 488  sub getShareID() { Line 593  sub getShareID() {
593    
594          $sth->{insert_share} ||= $dbh->prepare(qq{          $sth->{insert_share} ||= $dbh->prepare(qq{
595                  INSERT INTO shares                  INSERT INTO shares
596                          (hostID,name,share,localpath)                          (hostID,name,share)
597                  VALUES (?,?,?,?)                  VALUES (?,?,?)
598          });          });
599    
600          my $drop_down = $hostname . '/' . $share;          my $drop_down = $hostname . '/' . $share;
601          $drop_down =~ s#//+#/#g;          $drop_down =~ s#//+#/#g;
602    
603          $sth->{insert_share}->execute($hostID,$share, $drop_down ,undef);          $sth->{insert_share}->execute($hostID,$share, $drop_down);
604          return $dbh->last_insert_id(undef,undef,'shares',undef);          return $dbh->last_insert_id(undef,undef,'shares',undef);
605  }  }
606    
# Line 512  sub found_in_db { Line 617  sub found_in_db {
617                  SELECT 1 FROM files                  SELECT 1 FROM files
618                  WHERE shareID = ? and                  WHERE shareID = ? and
619                          path = ? and                          path = ? and
620                          date = ? and                          size = ? and
621                          size = ?                          ( date = ? or date = ? or date = ? )
622                  LIMIT 1                  LIMIT 1
623          });          });
624    
625          my @param = ($shareID,$path,$date,$size);          my @param = ($shareID,$path,$size,$date, $date-$dst_offset, $date+$dst_offset);
626          $sth->{file_in_db}->execute(@param);          $sth->{file_in_db}->execute(@param);
627          my $rows = $sth->{file_in_db}->rows;          my $rows = $sth->{file_in_db}->rows;
628          print STDERR "## found_in_db($shareID,$path,$date,$size) ",( $rows ? '+' : '-' ), join(" ",@param), "\n" if ($debug >= 3);          print STDERR "## found_in_db($shareID,$path,$date,$size) ",( $rows ? '+' : '-' ), join(" ",@param), "\n" if ($debug >= 3);
# Line 567  sub recurseDir($$$$$$$$) { Line 672  sub recurseDir($$$$$$$$) {
672                                  $filesInBackup->{$path_key}->{'size'}                                  $filesInBackup->{$path_key}->{'size'}
673                          ));                          ));
674    
675                            my $key_dst_prev = join(" ", (
676                                    $shareID,
677                                    $dir,
678                                    $path_key,
679                                    $filesInBackup->{$path_key}->{'mtime'} - $dst_offset,
680                                    $filesInBackup->{$path_key}->{'size'}
681                            ));
682    
683                            my $key_dst_next = join(" ", (
684                                    $shareID,
685                                    $dir,
686                                    $path_key,
687                                    $filesInBackup->{$path_key}->{'mtime'} + $dst_offset,
688                                    $filesInBackup->{$path_key}->{'size'}
689                            ));
690    
691                          my $found;                          my $found;
692                          if (! defined($beenThere->{$key}) && ! ($found = found_in_db($key, @data)) ) {                          if (
693                                    ! defined($beenThere->{$key}) &&
694                                    ! defined($beenThere->{$key_dst_prev}) &&
695                                    ! defined($beenThere->{$key_dst_next}) &&
696                                    ! ($found = found_in_db($key, @data))
697                            ) {
698                                  print STDERR "# key: $key [", $beenThere->{$key},"]" if ($debug >= 2);                                  print STDERR "# key: $key [", $beenThere->{$key},"]" if ($debug >= 2);
699    
700                                  if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {                                  if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {

Legend:
Removed from v.97  
changed lines
  Added in v.250

  ViewVC Help
Powered by ViewVC 1.1.26