/[BackupPC]/trunk/bin/BackupPC_updatedb
This is repository of my old source code which isn't updated any more. Go to git.rot13.org for current projects!
ViewVC logotype

Diff of /trunk/bin/BackupPC_updatedb

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

revision 95 by dpavlin, Tue Aug 30 09:55:34 2005 UTC revision 325 by dpavlin, Tue Jan 31 16:29:30 2006 UTC
# Line 11  use Getopt::Std; Line 11  use Getopt::Std;
11  use Time::HiRes qw/time/;  use Time::HiRes qw/time/;
12  use File::Pid;  use File::Pid;
13  use POSIX qw/strftime/;  use POSIX qw/strftime/;
14    use BackupPC::SearchLib;
15    use Cwd qw/abs_path/;
16    
17  use constant BPC_FTYPE_DIR => 5;  use constant BPC_FTYPE_DIR => 5;
18    use constant EST_CHUNK => 4096;
19    
20    # daylight saving time change offset for 1h
21    my $dst_offset = 60 * 60;
22    
23  my $debug = 0;  my $debug = 0;
24  $|=1;  $|=1;
25    
26  my $start_t = time();  my $start_t = time();
27    
28  my $pidfile = new File::Pid;  my $pid_path = abs_path($0);
29    $pid_path =~ s/\W+/_/g;
30    
31    my $pidfile = new File::Pid({
32            file => "/tmp/$pid_path",
33    });
34    
35  if (my $pid = $pidfile->running ) {  if (my $pid = $pidfile->running ) {
36          die "$0 already running: $pid\n";          die "$0 already running: $pid\n";
# Line 27  if (my $pid = $pidfile->running ) { Line 38  if (my $pid = $pidfile->running ) {
38          $pidfile->remove;          $pidfile->remove;
39          $pidfile = new File::Pid;          $pidfile = new File::Pid;
40  }  }
 $pidfile->write;  
41  print STDERR "$0 using pid ",$pidfile->pid," file ",$pidfile->file,"\n";  print STDERR "$0 using pid ",$pidfile->pid," file ",$pidfile->file,"\n";
42    $pidfile->write;
43    
44  my $t_fmt = '%Y-%m-%d %H:%M:%S';  my $t_fmt = '%Y-%m-%d %H:%M:%S';
45    
# Line 40  my $beenThere = {}; Line 51  my $beenThere = {};
51    
52  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";
53  my $user = $Conf{SearchUser} || '';  my $user = $Conf{SearchUser} || '';
 my $index_path = $Conf{HyperEstraierIndex};  
 $index_path = $TopDir . '/' . $index_path;  
 $index_path =~ s#//#/#g;  
54    
55    my $index_node_url = $Conf{HyperEstraierIndex};
56    
57  my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });  my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });
58    
59  my %opt;  my %opt;
60    
61  if ( !getopts("cdm:v:i", \%opt ) ) {  if ( !getopts("cdm:v:ijfq", \%opt ) ) {
62          print STDERR <<EOF;          print STDERR <<EOF;
63  usage: $0 [-c|-d] [-m num] [-v|-v level] [-i]  usage: $0 [-c|-d] [-m num] [-v|-v level] [-i|-j|-f]
64    
65  Options:  Options:
66          -c      create database on first use          -c      create database on first use
67          -d      delete database before import          -d      delete database before import
68          -m num  import just num increments for one host          -m num  import just num increments for one host
69          -v num  set verbosity (debug) level (default $debug)          -v num  set verbosity (debug) level (default $debug)
70          -i      update HyperEstraier full text index          -i      update Hyper Estraier full text index
71            -j      update full text, don't check existing files
72            -f      don't do anything with full text index
73            -q      be quiet for hosts without changes
74    
75    Option -j is variation on -i. It will allow faster initial creation
76    of full-text index from existing database.
77    
78    Option -f will create database which is out of sync with full text index. You
79    will have to re-run $0 with -i to fix it.
80    
81  EOF  EOF
82          exit 1;          exit 1;
83  }  }
# Line 66  EOF Line 85  EOF
85  if ($opt{v}) {  if ($opt{v}) {
86          print "Debug level at $opt{v}\n";          print "Debug level at $opt{v}\n";
87          $debug = $opt{v};          $debug = $opt{v};
88    } elsif ($opt{f}) {
89            print "WARNING: disabling full-text index update. You need to re-run $0 -j !\n";
90            $index_node_url = undef;
91  }  }
92    
93  #---- subs ----  #---- subs ----
# Line 83  sub curr_time { Line 105  sub curr_time {
105          return strftime($t_fmt,localtime());          return strftime($t_fmt,localtime());
106  }  }
107    
108  my $hest_db;  my $hest_node;
109    
110  sub hest_update {  sub hest_update {
111    
112          my ($host_id, $share_id, $num) = @_;          my ($host_id, $share_id, $num) = @_;
113    
114          print curr_time," updating HyperEstraier: select files";          my $skip_check = $opt{j} && print STDERR "Skipping check for existing files -- this should be used only with initital import\n";
115    
116          my $t = time();          unless (defined($index_node_url)) {
117                    print STDERR "HyperEstraier support not enabled in configuration\n";
118          my $where = '';                  $index_node_url = 0;
         if ($host_id && $share_id && $num) {  
                 $where = qq{  
                 WHERE  
                         hosts.id = ? AND  
                         shares.id = ? AND  
                         files.backupnum = ?  
                 };  
         }  
   
         my $sth = $dbh->prepare(qq{  
                 SELECT  
                         files.id                        AS fid,  
                         hosts.name                      AS hname,  
                         shares.name                     AS sname,  
                         -- shares.share                 AS sharename,  
                         files.backupnum                 AS backupnum,  
                         -- files.name                   AS filename,  
                         files.path                      AS filepath,  
                         files.date                      AS date,  
                         files.type                      AS type,  
                         files.size                      AS size,  
                         files.shareid                   AS shareid,  
                         backups.date                    AS backup_date  
                 FROM files  
                         INNER JOIN shares       ON files.shareID=shares.ID  
                         INNER JOIN hosts        ON hosts.ID = shares.hostID  
                         INNER JOIN backups      ON backups.num = files.backupNum and backups.hostID = hosts.ID AND backups.shareID = shares.ID  
                 $where  
         });  
   
         $sth->execute(@_);  
         my $results = $sth->rows;  
   
         if ($results == 0) {  
                 print " - no files, skipping\n";  
119                  return;                  return;
120          }          }
121    
122          my $dot = int($results / 15) || 1;          print curr_time," updating Hyper Estraier:";
   
         print " $results ($dot/#)";  
   
         sub fmt_date {  
                 my $t = shift || return;  
                 my $iso = BackupPC::Lib::timeStamp($t);  
                 $iso =~ s/\s/T/;  
                 return $iso;  
         }  
   
         my $max = int($results / $dot);  
   
         print ", opening index $index_path...";  
         use HyperEstraier;  
         my $db = HyperEstraier::Database->new();  
   
 #       unless ($hest_db) {  
 #               print " open reader";  
 #               $hest_db = HyperEstraier::Database->new();  
 #  
 #       }  
123    
124            my $t = time();
125    
126          $db->open($index_path, $HyperEstraier::Database::DBWRITER | $HyperEstraier::Database::DBCREAT);          my $offset = 0;
   
127          my $added = 0;          my $added = 0;
128    
129          while (my $row = $sth->fetchrow_hashref()) {          if ($index_node_url) {
130                    print " opening index $index_node_url";
131                    $hest_node ||= Search::Estraier::Node->new(
132                            url => $index_node_url,
133                            user => 'admin',
134                            passwd => 'admin',
135                            croak_on_error => 1,
136                    );
137                    print " via node URL";
138            }
139    
140            my $results = 0;
141    
142                  my $fid = $row->{'fid'} || die "no fid?";          do {
                 my $uri = 'file:///' . $fid;  
143    
144                  my $id = $db->uri_to_id($uri);                  my $where = '';
145                  next unless ($id == -1);                  my @data;
146                    if (defined($host_id) && defined($share_id) && defined($num)) {
147                            $where = qq{
148                            WHERE
149                                    hosts.id = ? AND
150                                    shares.id = ? AND
151                                    files.backupnum = ?
152                            };
153                            @data = ( $host_id, $share_id, $num );
154                    }
155    
156                  # create a document object                  my $limit = sprintf('LIMIT '.EST_CHUNK.' OFFSET %d', $offset);
                 my $doc = HyperEstraier::Document->new;  
157    
158                  # add attributes to the document object                  my $sth = $dbh->prepare(qq{
159                  $doc->add_attr('@uri', $uri);                          SELECT
160                                    files.id                        AS fid,
161                                    hosts.name                      AS hname,
162                                    shares.name                     AS sname,
163                                    -- shares.share                 AS sharename,
164                                    files.backupnum                 AS backupnum,
165                                    -- files.name                   AS filename,
166                                    files.path                      AS filepath,
167                                    files.date                      AS date,
168                                    files.type                      AS type,
169                                    files.size                      AS size,
170                                    files.shareid                   AS shareid,
171                                    backups.date                    AS backup_date
172                            FROM files
173                                    INNER JOIN shares       ON files.shareID=shares.ID
174                                    INNER JOIN hosts        ON hosts.ID = shares.hostID
175                                    INNER JOIN backups      ON backups.num = files.backupNum and backups.hostID = hosts.ID AND backups.shareID = shares.ID
176                            $where
177                            $limit
178                    });
179    
180                    $sth->execute(@data);
181                    $results = $sth->rows;
182    
183                    if ($results == 0) {
184                            print " - no new files\n";
185                            return;
186                    } else {
187                            print "...";
188                    }
189    
190                  foreach my $c (@{ $sth->{NAME} }) {                  sub fmt_date {
191                          $doc->add_attr($c, $row->{$c}) if ($row->{$c});                          my $t = shift || return;
192                            my $iso = BackupPC::Lib::timeStamp($t);
193                            $iso =~ s/\s/T/;
194                            return $iso;
195                  }                  }
196    
197                  #$doc->add_attr('@cdate', fmt_date($row->{'date'}));                  while (my $row = $sth->fetchrow_hashref()) {
198    
199                  # add the body text to the document object                          my $uri = $row->{hname} . ':' . $row->{sname} . '#' . $row->{backupnum} . ' ' . $row->{filepath};
200                  my $path = $row->{'filepath'};                          unless ($skip_check && $hest_node) {
201                  $doc->add_text($path);                                  my $id = $hest_node->uri_to_id($uri);
202                  $path =~ s/(.)/$1 /g;                                  next if ($id && $id == -1);
203                  $doc->add_hidden_text($path);                          }
204    
205                  print STDERR $doc->dump_draft,"\n" if ($debug > 1);                          # create a document object
206                            my $doc = Search::Estraier::Document->new;
207                  # register the document object to the database  
208                  $db->put_doc($doc, $HyperEstraier::Database::PDCLEAN);                          # add attributes to the document object
209                            $doc->add_attr('@uri', $uri);
210                  $added++;  
211                  if ($added % $dot == 0) {                          foreach my $c (@{ $sth->{NAME} }) {
212                          print "$max ";                                  print STDERR "attr $c = $row->{$c}\n" if ($debug > 2);
213                          $max--;                                  $doc->add_attr($c, $row->{$c}) if (defined($row->{$c}));
214                            }
215    
216                            #$doc->add_attr('@cdate', fmt_date($row->{'date'}));
217    
218                            # add the body text to the document object
219                            my $path = $row->{'filepath'};
220                            $doc->add_text($path);
221                            $path =~ s/(.)/$1 /g;
222                            $doc->add_hidden_text($path);
223    
224                            print STDERR $doc->dump_draft,"\n" if ($debug > 1);
225    
226                            # register the document object to the database
227                            if ($hest_node) {
228                                    $hest_node->put_doc($doc);
229                            } else {
230                                    die "not supported";
231                            }
232                            $added++;
233                  }                  }
234    
235          }                  print "$added";
236    
237          print "sync $added new files";                  $offset += EST_CHUNK;
238          $db->sync();  
239          print ", close";          } while ($results == EST_CHUNK);
         $db->close();  
240    
241          my $dur = (time() - $t) || 1;          my $dur = (time() - $t) || 1;
242          printf(" [%.2f/s new %.2f/s dur: %s]\n",          printf(" [%.2f/s dur: %s]\n",
                 ( $results / $dur ),  
243                  ( $added / $dur ),                  ( $added / $dur ),
244                  fmt_time($dur)                  fmt_time($dur)
245          );          );
# Line 216  sub hest_update { Line 249  sub hest_update {
249    
250    
251  ## update index ##  ## update index ##
252  if (($opt{i} || ($index_path && ! -e $index_path)) && !$opt{c}) {  if ( ( $opt{i} || $opt{j} ) && !$opt{c} ) {
253          # update all          # update all
254          print "force update of HyperEstraier index ";          print "force update of Hyper Estraier index ";
         print "importing existing data" unless (-e $index_path);  
255          print "by -i flag" if ($opt{i});          print "by -i flag" if ($opt{i});
256            print "by -j flag" if ($opt{j});
257          print "\n";          print "\n";
258          hest_update();          hest_update();
259  }  }
# Line 229  if (($opt{i} || ($index_path && ! -e $in Line 262  if (($opt{i} || ($index_path && ! -e $in
262  if ($opt{c}) {  if ($opt{c}) {
263          sub do_index {          sub do_index {
264                  my $index = shift || return;                  my $index = shift || return;
265                  my ($table,$col,$unique) = split(/_/, $index);                  my ($table,$col,$unique) = split(/:/, $index);
266                  $unique ||= '';                  $unique ||= '';
267                  $index =~ s/,/_/g;                  $index =~ s/\W+/_/g;
268                    print "$index on $table($col)" . ( $unique ? "u" : "" ) . " ";
269                  $dbh->do(qq{ create $unique index $index on $table($col) });                  $dbh->do(qq{ create $unique index $index on $table($col) });
270          }          }
271    
272          print "creating tables...\n";          print "creating tables...\n";
273          
274          $dbh->do(qq{          $dbh->do( qq{
275                  create table hosts (                  create table hosts (
276                          ID      SERIAL          PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
277                          name    VARCHAR(30)     NOT NULL,                          name    VARCHAR(30)     NOT NULL,
278                          IP      VARCHAR(15)                          IP      VARCHAR(15)
279                  );                              );            
280          });  
                 
         $dbh->do(qq{  
281                  create table shares (                  create table shares (
282                          ID      SERIAL          PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
283                          hostID  INTEGER         NOT NULL references hosts(id),                          hostID  INTEGER         NOT NULL references hosts(id),
284                          name    VARCHAR(30)     NOT NULL,                          name    VARCHAR(30)     NOT NULL,
285                          share   VARCHAR(200)    NOT NULL,                          share   VARCHAR(200)    NOT NULL
                         localpath VARCHAR(200)        
286                  );                              );            
287          });  
288                            create table dvds (
289          $dbh->do(qq{                          ID      SERIAL          PRIMARY KEY,
290                            num     INTEGER         NOT NULL,
291                            name    VARCHAR(255)    NOT NULL,
292                            mjesto  VARCHAR(255)
293                    );
294    
295                  create table backups (                  create table backups (
296                            id      serial,
297                          hostID  INTEGER         NOT NULL references hosts(id),                          hostID  INTEGER         NOT NULL references hosts(id),
298                          num     INTEGER         NOT NULL,                          num     INTEGER         NOT NULL,
299                          date    integer         NOT NULL,                          date    integer         NOT NULL,
300                          type    CHAR(4)         not null,                          type    CHAR(4)         not null,
301                          shareID integer         not null references shares(id),                          shareID integer         not null references shares(id),
302                          size    integer         not null,                          size    bigint          not null,
303                          PRIMARY KEY(hostID, num, shareID)                          inc_size bigint         not null default -1,
304                            inc_deleted boolean     default false,
305                            parts   integer         not null default 0,
306                            PRIMARY KEY(id)
307                  );                              );            
         });  
308    
309          #do_index('backups_hostid,num_unique');                  create table files (
310                            ID              SERIAL,
311                            shareID         INTEGER NOT NULL references shares(id),
312                            backupNum       INTEGER NOT NULL,
313                            name            VARCHAR(255) NOT NULL,
314                            path            VARCHAR(255) NOT NULL,
315                            date            integer NOT NULL,
316                            type            INTEGER NOT NULL,
317                            size            bigint  NOT NULL,
318                            primary key(id)
319                    );
320    
321          $dbh->do(qq{                  create table archive (
322                  create table dvds (                          id              serial,
323                          ID      SERIAL          PRIMARY KEY,                          dvd_nr          int not null,
324                          num     INTEGER         NOT NULL,                          total_size      bigint default -1,
325                          name    VARCHAR(255)    NOT NULL,                          note            text,
326                          mjesto  VARCHAR(255)                          username        varchar(20) not null,
327                            date            timestamp default now(),
328                            primary key(id)
329                    );      
330    
331                    create table archive_backup (
332                            archive_id      int not null references archive(id) on delete cascade,
333                            backup_id       int not null references backups(id),
334                            primary key(archive_id, backup_id)
335                  );                  );
         });  
336    
337          $dbh->do(qq{                      create table archive_burned (
338                  create table files (                          archive_id      int references archive(id),
339                          ID      SERIAL          PRIMARY KEY,                            date            timestamp default now(),
340                          shareID INTEGER         NOT NULL references shares(id),                          part            int not null default 1,
341                          backupNum  INTEGER      NOT NULL,                          copy            int not null default 1,
342                          name       VARCHAR(255) NOT NULL,                          iso_size bigint default -1
343                          path       VARCHAR(255) NOT NULL,                  );
344                          date       integer      NOT NULL,  
345                          type       INTEGER      NOT NULL,                  create table backup_parts (
346                          size       INTEGER      NOT NULL,                          id serial,
347                          dvdid      INTEGER      references dvds(id)                              backup_id int references backups(id),
348                            part_nr int not null check (part_nr > 0),
349                            tar_size bigint not null check (tar_size > 0),
350                            size bigint not null check (size > 0),
351                            md5 text not null,
352                            items int not null check (items > 0),
353                            date timestamp default now(),
354                            primary key(id)
355                  );                  );
356          });          });
357    
358          print "creating indexes:";          print "creating indexes: ";
359    
360          foreach my $index (qw(          foreach my $index (qw(
361                  hosts_name                  hosts:name
362                  backups_hostID                  backups:hostID
363                  backups_num                  backups:num
364                  shares_hostID                  backups:shareID
365                  shares_name                  shares:hostID
366                  files_shareID                  shares:name
367                  files_path                  files:shareID
368                  files_name                  files:path
369                  files_date                  files:name
370                  files_size                  files:date
371                    files:size
372                    archive:dvd_nr
373                    archive_burned:archive_id
374                    backup_parts:backup_id,part_nr
375          )) {          )) {
                 print " $index";  
376                  do_index($index);                  do_index($index);
377          }          }
378    
379            print " creating sequence: ";
380            foreach my $seq (qw/dvd_nr/) {
381                    print "$seq ";
382                    $dbh->do( qq{ CREATE SEQUENCE $seq } );
383            }
384    
385            print " creating triggers ";
386            $dbh->do( qq{
387                    create or replace function backup_parts_check() returns trigger as '
388                    declare
389                            b_parts integer;
390                            b_counted integer;
391                            b_id    integer;
392                    begin
393                            if (TG_OP=''UPDATE'') then
394                                    b_id := old.id;
395                                    b_parts := old.parts;
396                            elsif (TG_OP = ''INSERT'') then
397                                    b_id := new.id;
398                                    b_parts := new.parts;
399                            end if;
400                            b_counted := (select count(*) from backup_parts where backup_id = b_id);
401                            if ( b_parts != b_counted ) then
402                                    raise exception ''Update of backup % aborted, requested % parts and there are really % parts'', b_id, b_parts, b_counted;
403                            end if;
404                            return null;
405                    end;
406                    ' language plpgsql;
407    
408                    create trigger do_backup_parts_check
409                            after insert or update or delete on backups
410                            for each row execute procedure backup_parts_check();
411            });
412    
413          print "...\n";          print "...\n";
414    
415          $dbh->commit;          $dbh->commit;
# Line 352  WHERE hostID=? AND num=? AND shareid=? Line 453  WHERE hostID=? AND num=? AND shareid=?
453    
454  $sth->{insert_backups} = $dbh->prepare(qq{  $sth->{insert_backups} = $dbh->prepare(qq{
455  INSERT INTO backups (hostID, num, date, type, shareid, size)  INSERT INTO backups (hostID, num, date, type, shareid, size)
456  VALUES (?,?,?,?,?,?)  VALUES (?,?,?,?,?,-1)
457    });
458    
459    $sth->{update_backups_size} = $dbh->prepare(qq{
460    UPDATE backups SET size = ?
461    WHERE hostID = ? and num = ? and date = ? and type =? and shareid = ?
462  });  });
463    
464  $sth->{insert_files} = $dbh->prepare(qq{  $sth->{insert_files} = $dbh->prepare(qq{
# Line 361  INSERT INTO files Line 467  INSERT INTO files
467          VALUES (?,?,?,?,?,?,?)          VALUES (?,?,?,?,?,?,?)
468  });  });
469    
470  foreach my $host_key (keys %{$hosts}) {  my @hosts = keys %{$hosts};
471    my $host_nr = 0;
472    
473    foreach my $host_key (@hosts) {
474    
475          my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";          my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";
476    
# Line 376  foreach my $host_key (keys %{$hosts}) { Line 485  foreach my $host_key (keys %{$hosts}) {
485                  $hostID = $dbh->last_insert_id(undef,undef,'hosts',undef);                  $hostID = $dbh->last_insert_id(undef,undef,'hosts',undef);
486          }          }
487    
488          print "host ".$hosts->{$host_key}->{'host'}.": ";          $host_nr++;
   
489          # get backups for a host          # get backups for a host
490          my @backups = $bpc->BackupInfoRead($hostname);          my @backups = $bpc->BackupInfoRead($hostname);
491          my $incs = scalar @backups;          my $incs = scalar @backups;
         print  "$incs increments\n";  
492    
493            my $host_header = sprintf("host %s [%d/%d]: %d increments\n",
494                    $hosts->{$host_key}->{'host'},
495                    $host_nr,
496                    ($#hosts + 1),
497                    $incs
498            );
499            print $host_header unless ($opt{q});
500    
501          my $inc_nr = 0;          my $inc_nr = 0;
502          $beenThere = {};          $beenThere = {};
503    
# Line 394  foreach my $host_key (keys %{$hosts}) { Line 509  foreach my $host_key (keys %{$hosts}) {
509                  my $backupNum = $backup->{'num'};                  my $backupNum = $backup->{'num'};
510                  my @backupShares = ();                  my @backupShares = ();
511    
512                  printf("%-10s %2d/%-2d #%-2d %s %5s/%5s files (date: %s dur: %s)\n",                  my $share_header = sprintf("%-10s %2d/%-2d #%-2d %s %5s/%5s files (date: %s dur: %s)\n",
513                          $hosts->{$host_key}->{'host'},                          $hosts->{$host_key}->{'host'},
514                          $inc_nr, $incs, $backupNum,                          $inc_nr, $incs, $backupNum,
515                          $backup->{type} || '?',                          $backup->{type} || '?',
# Line 402  foreach my $host_key (keys %{$hosts}) { Line 517  foreach my $host_key (keys %{$hosts}) {
517                          strftime($t_fmt,localtime($backup->{startTime})),                          strftime($t_fmt,localtime($backup->{startTime})),
518                          fmt_time($backup->{endTime} - $backup->{startTime})                          fmt_time($backup->{endTime} - $backup->{startTime})
519                  );                  );
520                    print $share_header unless ($opt{q});
521    
522                  my $files = BackupPC::View->new($bpc, $hostname, \@backups, 1);                  my $files = BackupPC::View->new($bpc, $hostname, \@backups, 1);
523                  foreach my $share ($files->shareList($backupNum)) {                  foreach my $share ($files->shareList($backupNum)) {
# Line 415  foreach my $host_key (keys %{$hosts}) { Line 531  foreach my $host_key (keys %{$hosts}) {
531                          # skip if allready in database!                          # skip if allready in database!
532                          next if ($count > 0);                          next if ($count > 0);
533    
534                            # dump host and share header for -q
535                            if ($opt{q}) {
536                                    if ($host_header) {
537                                            print $host_header;
538                                            $host_header = undef;
539                                    }
540                                    print $share_header;
541                            }
542    
543                          # dump some log                          # dump some log
544                          print curr_time," ", $share;                          print curr_time," ", $share;
545    
                         my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);  
   
546                          $sth->{insert_backups}->execute(                          $sth->{insert_backups}->execute(
547                                  $hostID,                                  $hostID,
548                                  $backupNum,                                  $backupNum,
549                                  $backup->{'endTime'},                                  $backup->{'endTime'},
550                                  $backup->{'type'},                                  substr($backup->{'type'},0,4),
551                                  $shareID,                                  $shareID,
                                 $size,  
552                          );                          );
553    
554                          print " commit";                          my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);
555                          $dbh->commit();  
556                            eval {
557                                    $sth->{update_backups_size}->execute(
558                                            $size,
559                                            $hostID,
560                                            $backupNum,
561                                            $backup->{'endTime'},
562                                            substr($backup->{'type'},0,4),
563                                            $shareID,
564                                    );
565                                    print " commit";
566                                    $dbh->commit();
567                            };
568                            if ($@) {
569                                    print " rollback";
570                                    $dbh->rollback();
571                            }
572    
573                          my $dur = (time() - $t) || 1;                          my $dur = (time() - $t) || 1;
574                          printf(" %d/%d files %d/%d dirs %0.2f MB [%.2f/s dur: %s]\n",                          printf(" %d/%d files %d/%d dirs %0.2f MB [%.2f/s dur: %s]\n",
# Line 440  foreach my $host_key (keys %{$hosts}) { Line 578  foreach my $host_key (keys %{$hosts}) {
578                                  fmt_time($dur)                                  fmt_time($dur)
579                          );                          );
580    
581                          hest_update($hostID, $shareID, $backupNum);                          hest_update($hostID, $shareID, $backupNum) if ($nf + $nd > 0);
582                  }                  }
583    
584          }          }
# Line 469  sub getShareID() { Line 607  sub getShareID() {
607    
608          $sth->{insert_share} ||= $dbh->prepare(qq{          $sth->{insert_share} ||= $dbh->prepare(qq{
609                  INSERT INTO shares                  INSERT INTO shares
610                          (hostID,name,share,localpath)                          (hostID,name,share)
611                  VALUES (?,?,?,?)                  VALUES (?,?,?)
612          });          });
613    
614          my $drop_down = $hostname . '/' . $share;          my $drop_down = $hostname . '/' . $share;
615          $drop_down =~ s#//+#/#g;          $drop_down =~ s#//+#/#g;
616    
617          $sth->{insert_share}->execute($hostID,$share, $drop_down ,undef);          $sth->{insert_share}->execute($hostID,$share, $drop_down);
618          return $dbh->last_insert_id(undef,undef,'shares',undef);          return $dbh->last_insert_id(undef,undef,'shares',undef);
619  }  }
620    
# Line 493  sub found_in_db { Line 631  sub found_in_db {
631                  SELECT 1 FROM files                  SELECT 1 FROM files
632                  WHERE shareID = ? and                  WHERE shareID = ? and
633                          path = ? and                          path = ? and
634                          date = ? and                          size = ? and
635                          size = ?                          ( date = ? or date = ? or date = ? )
636                  LIMIT 1                  LIMIT 1
637          });          });
638    
639          my @param = ($shareID,$path,$date,$size);          my @param = ($shareID,$path,$size,$date, $date-$dst_offset, $date+$dst_offset);
640          $sth->{file_in_db}->execute(@param);          $sth->{file_in_db}->execute(@param);
641          my $rows = $sth->{file_in_db}->rows;          my $rows = $sth->{file_in_db}->rows;
642          print STDERR "## found_in_db($shareID,$path,$date,$size) ",( $rows ? '+' : '-' ), join(" ",@param), "\n" if ($debug >= 3);          print STDERR "## found_in_db($shareID,$path,$date,$size) ",( $rows ? '+' : '-' ), join(" ",@param), "\n" if ($debug >= 3);
# Line 548  sub recurseDir($$$$$$$$) { Line 686  sub recurseDir($$$$$$$$) {
686                                  $filesInBackup->{$path_key}->{'size'}                                  $filesInBackup->{$path_key}->{'size'}
687                          ));                          ));
688    
689                            my $key_dst_prev = join(" ", (
690                                    $shareID,
691                                    $dir,
692                                    $path_key,
693                                    $filesInBackup->{$path_key}->{'mtime'} - $dst_offset,
694                                    $filesInBackup->{$path_key}->{'size'}
695                            ));
696    
697                            my $key_dst_next = join(" ", (
698                                    $shareID,
699                                    $dir,
700                                    $path_key,
701                                    $filesInBackup->{$path_key}->{'mtime'} + $dst_offset,
702                                    $filesInBackup->{$path_key}->{'size'}
703                            ));
704    
705                          my $found;                          my $found;
706                          if (! defined($beenThere->{$key}) && ! ($found = found_in_db($key, @data)) ) {                          if (
707                                    ! defined($beenThere->{$key}) &&
708                                    ! defined($beenThere->{$key_dst_prev}) &&
709                                    ! defined($beenThere->{$key_dst_next}) &&
710                                    ! ($found = found_in_db($key, @data))
711                            ) {
712                                  print STDERR "# key: $key [", $beenThere->{$key},"]" if ($debug >= 2);                                  print STDERR "# key: $key [", $beenThere->{$key},"]" if ($debug >= 2);
713    
714                                  if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {                                  if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {

Legend:
Removed from v.95  
changed lines
  Added in v.325

  ViewVC Help
Powered by ViewVC 1.1.26