/[BackupPC]/trunk/bin/BackupPC_updatedb
This is repository of my old source code which isn't updated any more. Go to git.rot13.org for current projects!
ViewVC logotype

Diff of /trunk/bin/BackupPC_updatedb

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

revision 202 by dpavlin, Fri Oct 14 14:02:52 2005 UTC revision 326 by dpavlin, Tue Jan 31 16:37:14 2006 UTC
# Line 12  use Time::HiRes qw/time/; Line 12  use Time::HiRes qw/time/;
12  use File::Pid;  use File::Pid;
13  use POSIX qw/strftime/;  use POSIX qw/strftime/;
14  use BackupPC::SearchLib;  use BackupPC::SearchLib;
15    use Cwd qw/abs_path/;
16    
17  use constant BPC_FTYPE_DIR => 5;  use constant BPC_FTYPE_DIR => 5;
18  use constant EST_CHUNK => 100000;  use constant EST_CHUNK => 4096;
19    
20    # daylight saving time change offset for 1h
21    my $dst_offset = 60 * 60;
22    
23  my $debug = 0;  my $debug = 0;
24  $|=1;  $|=1;
25    
26  my $start_t = time();  my $start_t = time();
27    
28  my $pidfile = new File::Pid;  my $pid_path = abs_path($0);
29    $pid_path =~ s/\W+/_/g;
30    
31    my $pidfile = new File::Pid({
32            file => "/tmp/$pid_path",
33    });
34    
35  if (my $pid = $pidfile->running ) {  if (my $pid = $pidfile->running ) {
36          die "$0 already running: $pid\n";          die "$0 already running: $pid\n";
# Line 29  if (my $pid = $pidfile->running ) { Line 38  if (my $pid = $pidfile->running ) {
38          $pidfile->remove;          $pidfile->remove;
39          $pidfile = new File::Pid;          $pidfile = new File::Pid;
40  }  }
 $pidfile->write;  
41  print STDERR "$0 using pid ",$pidfile->pid," file ",$pidfile->file,"\n";  print STDERR "$0 using pid ",$pidfile->pid," file ",$pidfile->file,"\n";
42    $pidfile->write;
43    
44  my $t_fmt = '%Y-%m-%d %H:%M:%S';  my $t_fmt = '%Y-%m-%d %H:%M:%S';
45    
# Line 43  my $beenThere = {}; Line 52  my $beenThere = {};
52  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";
53  my $user = $Conf{SearchUser} || '';  my $user = $Conf{SearchUser} || '';
54    
55  my $use_hest = $Conf{HyperEstraierIndex};  my $index_node_url = $Conf{HyperEstraierIndex};
 my ($index_path, $index_node_url) = BackupPC::SearchLib::getHyperEstraier_url($use_hest);  
56    
57  my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });  my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });
58    
59  my %opt;  my %opt;
60    
61  if ( !getopts("cdm:v:ij", \%opt ) ) {  if ( !getopts("cdm:v:ijfq", \%opt ) ) {
62          print STDERR <<EOF;          print STDERR <<EOF;
63  usage: $0 [-c|-d] [-m num] [-v|-v level] [-i]  usage: $0 [-c|-d] [-m num] [-v|-v level] [-i|-j|-f]
64    
65  Options:  Options:
66          -c      create database on first use          -c      create database on first use
# Line 61  Options: Line 69  Options:
69          -v num  set verbosity (debug) level (default $debug)          -v num  set verbosity (debug) level (default $debug)
70          -i      update Hyper Estraier full text index          -i      update Hyper Estraier full text index
71          -j      update full text, don't check existing files          -j      update full text, don't check existing files
72            -f      don't do anything with full text index
73            -q      be quiet for hosts without changes
74    
75  Option -j is variation on -i. It will allow faster initial creation  Option -j is variation on -i. It will allow faster initial creation
76  of full-text index from existing database.  of full-text index from existing database.
77    
78    Option -f will create database which is out of sync with full text index. You
79    will have to re-run $0 with -i to fix it.
80    
81  EOF  EOF
82          exit 1;          exit 1;
83  }  }
# Line 72  EOF Line 85  EOF
85  if ($opt{v}) {  if ($opt{v}) {
86          print "Debug level at $opt{v}\n";          print "Debug level at $opt{v}\n";
87          $debug = $opt{v};          $debug = $opt{v};
88    } elsif ($opt{f}) {
89            print "WARNING: disabling full-text index update. You need to re-run $0 -j !\n";
90            $index_node_url = undef;
91  }  }
92    
93  #---- subs ----  #---- subs ----
# Line 89  sub curr_time { Line 105  sub curr_time {
105          return strftime($t_fmt,localtime());          return strftime($t_fmt,localtime());
106  }  }
107    
 my $hest_db;  
108  my $hest_node;  my $hest_node;
109    
 sub signal {  
         my($sig) = @_;  
         if ($hest_db) {  
                 print "\nCaught a SIG$sig--syncing database and shutting down\n";  
                 $hest_db->sync();  
                 $hest_db->close();  
         }  
         exit(0);  
 }  
   
 $SIG{'INT'}  = \&signal;  
 $SIG{'QUIT'} = \&signal;  
   
110  sub hest_update {  sub hest_update {
111    
112          my ($host_id, $share_id, $num) = @_;          my ($host_id, $share_id, $num) = @_;
113    
114          my $skip_check = $opt{j} && print STDERR "Skipping check for existing files -- this should be used only with initital import\n";          my $skip_check = $opt{j} && print STDERR "Skipping check for existing files -- this should be used only with initital import\n";
115    
116          unless ($use_hest) {          unless ($index_node_url && $index_node_url =~ m#^http://#) {
117                  print STDERR "HyperEstraier support not enabled in configuration\n";                  print STDERR "HyperEstraier support not enabled or index node invalid\n" if ($debug);
118                    $index_node_url = 0;
119                  return;                  return;
120          }          }
121    
122          print curr_time," updating HyperEstraier:";          print curr_time," updating Hyper Estraier:";
123    
124          my $t = time();          my $t = time();
125    
126          my $offset = 0;          my $offset = 0;
127          my $added = 0;          my $added = 0;
128    
129          print " opening index $use_hest";          if ($index_node_url) {
130          if ($index_path) {                  print " opening index $index_node_url";
131                  $hest_db = HyperEstraier::Database->new();                  $hest_node ||= Search::Estraier::Node->new(
132                  $hest_db->open($TopDir . $index_path, $HyperEstraier::Database::DBWRITER | $HyperEstraier::Database::DBCREAT);                          url => $index_node_url,
133                  print " directly";                          user => 'admin',
134          } elsif ($index_node_url) {                          passwd => 'admin',
135                  $hest_node ||= HyperEstraier::Node->new($index_node_url);                          croak_on_error => 1,
136                  $hest_node->set_auth('admin', 'admin');                  );
137                  print " via node URL";                  print " via node URL";
         } else {  
                 die "don't know how to use HyperEstraier Index $use_hest";  
138          }          }
         print " increment is " . EST_CHUNK . " files:";  
139    
140          my $results = 0;          my $results = 0;
141    
# Line 182  sub hest_update { Line 182  sub hest_update {
182    
183                  if ($results == 0) {                  if ($results == 0) {
184                          print " - no new files\n";                          print " - no new files\n";
185                          last;                          return;
186                    } else {
187                            print "...";
188                  }                  }
189    
190                  sub fmt_date {                  sub fmt_date {
# Line 194  sub hest_update { Line 196  sub hest_update {
196    
197                  while (my $row = $sth->fetchrow_hashref()) {                  while (my $row = $sth->fetchrow_hashref()) {
198    
199                          my $fid = $row->{'fid'} || die "no fid?";                          my $uri = $row->{hname} . ':' . $row->{sname} . '#' . $row->{backupnum} . ' ' . $row->{filepath};
200                          my $uri = 'file:///' . $fid;                          if (! $skip_check && $hest_node) {
201                                    my $id = $hest_node->uri_to_id($uri);
202                          unless ($skip_check) {                                  next if ($id && $id == -1);
                                 my $id = ($hest_db || $hest_node)->uri_to_id($uri);  
                                 next unless ($id == -1);  
203                          }                          }
204    
205                          # create a document object                          # create a document object
206                          my $doc = HyperEstraier::Document->new;                          my $doc = Search::Estraier::Document->new;
207    
208                          # add attributes to the document object                          # add attributes to the document object
209                          $doc->add_attr('@uri', $uri);                          $doc->add_attr('@uri', $uri);
210    
211                          foreach my $c (@{ $sth->{NAME} }) {                          foreach my $c (@{ $sth->{NAME} }) {
212                                  $doc->add_attr($c, $row->{$c}) if ($row->{$c});                                  print STDERR "attr $c = $row->{$c}\n" if ($debug > 2);
213                                    $doc->add_attr($c, $row->{$c}) if (defined($row->{$c}));
214                          }                          }
215    
216                          #$doc->add_attr('@cdate', fmt_date($row->{'date'}));                          #$doc->add_attr('@cdate', fmt_date($row->{'date'}));
# Line 223  sub hest_update { Line 224  sub hest_update {
224                          print STDERR $doc->dump_draft,"\n" if ($debug > 1);                          print STDERR $doc->dump_draft,"\n" if ($debug > 1);
225    
226                          # register the document object to the database                          # register the document object to the database
227                          if ($hest_db) {                          $hest_node->put_doc($doc) if ($hest_node);
228                                  $hest_db->put_doc($doc, $HyperEstraier::Database::PDCLEAN);  
                         } elsif ($hest_node) {  
                                 $hest_node->put_doc($doc);  
                         } else {  
                                 die "not supported";  
                         }  
229                          $added++;                          $added++;
230                  }                  }
231    
232                  print " $added";                  print "$added";
                 $hest_db->sync() if ($index_path);  
233    
234                  $offset += EST_CHUNK;                  $offset += EST_CHUNK;
235    
236          } while ($results == EST_CHUNK);          } while ($results == EST_CHUNK);
237    
         if ($index_path) {  
                 print ", close";  
                 $hest_db->close();  
         }  
   
238          my $dur = (time() - $t) || 1;          my $dur = (time() - $t) || 1;
239          printf(" [%.2f/s dur: %s]\n",          printf(" [%.2f/s dur: %s]\n",
240                  ( $added / $dur ),                  ( $added / $dur ),
# Line 256  sub hest_update { Line 246  sub hest_update {
246    
247    
248  ## update index ##  ## update index ##
249  if (($opt{i} || $opt{j} || ($index_path && ! -e $index_path)) && !$opt{c}) {  if ( ( $opt{i} || $opt{j} ) && !$opt{c} ) {
250          # update all          # update all
251          print "force update of HyperEstraier index ";          print "force update of Hyper Estraier index ";
         print "importing existing data" unless (-e $index_path);  
252          print "by -i flag" if ($opt{i});          print "by -i flag" if ($opt{i});
253          print "by -j flag" if ($opt{j});          print "by -j flag" if ($opt{j});
254          print "\n";          print "\n";
# Line 310  if ($opt{c}) { Line 299  if ($opt{c}) {
299                          size    bigint          not null,                          size    bigint          not null,
300                          inc_size bigint         not null default -1,                          inc_size bigint         not null default -1,
301                          inc_deleted boolean     default false,                          inc_deleted boolean     default false,
302                          parts   integer         not null default 1,                          parts   integer         not null default 0,
303                          PRIMARY KEY(id)                          PRIMARY KEY(id)
304                  );                              );            
305    
# Line 350  if ($opt{c}) { Line 339  if ($opt{c}) {
339                          iso_size bigint default -1                          iso_size bigint default -1
340                  );                  );
341    
342                    create table backup_parts (
343                            id serial,
344                            backup_id int references backups(id),
345                            part_nr int not null check (part_nr > 0),
346                            tar_size bigint not null check (tar_size > 0),
347                            size bigint not null check (size > 0),
348                            md5 text not null,
349                            items int not null check (items > 0),
350                            date timestamp default now(),
351                            primary key(id)
352                    );
353          });          });
354    
355          print "creating indexes: ";          print "creating indexes: ";
# Line 368  if ($opt{c}) { Line 368  if ($opt{c}) {
368                  files:size                  files:size
369                  archive:dvd_nr                  archive:dvd_nr
370                  archive_burned:archive_id                  archive_burned:archive_id
371                    backup_parts:backup_id,part_nr
372          )) {          )) {
373                  do_index($index);                  do_index($index);
374          }          }
# Line 378  if ($opt{c}) { Line 379  if ($opt{c}) {
379                  $dbh->do( qq{ CREATE SEQUENCE $seq } );                  $dbh->do( qq{ CREATE SEQUENCE $seq } );
380          }          }
381    
382            print " creating triggers ";
383            $dbh->do( qq{
384                    create or replace function backup_parts_check() returns trigger as '
385                    declare
386                            b_parts integer;
387                            b_counted integer;
388                            b_id    integer;
389                    begin
390                            if (TG_OP=''UPDATE'') then
391                                    b_id := old.id;
392                                    b_parts := old.parts;
393                            elsif (TG_OP = ''INSERT'') then
394                                    b_id := new.id;
395                                    b_parts := new.parts;
396                            end if;
397                            b_counted := (select count(*) from backup_parts where backup_id = b_id);
398                            if ( b_parts != b_counted ) then
399                                    raise exception ''Update of backup % aborted, requested % parts and there are really % parts'', b_id, b_parts, b_counted;
400                            end if;
401                            return null;
402                    end;
403                    ' language plpgsql;
404    
405                    create trigger do_backup_parts_check
406                            after insert or update or delete on backups
407                            for each row execute procedure backup_parts_check();
408            });
409    
410          print "...\n";          print "...\n";
411    
# Line 422  WHERE hostID=? AND num=? AND shareid=? Line 450  WHERE hostID=? AND num=? AND shareid=?
450    
451  $sth->{insert_backups} = $dbh->prepare(qq{  $sth->{insert_backups} = $dbh->prepare(qq{
452  INSERT INTO backups (hostID, num, date, type, shareid, size)  INSERT INTO backups (hostID, num, date, type, shareid, size)
453  VALUES (?,?,?,?,?,?)  VALUES (?,?,?,?,?,-1)
454    });
455    
456    $sth->{update_backups_size} = $dbh->prepare(qq{
457    UPDATE backups SET size = ?
458    WHERE hostID = ? and num = ? and date = ? and type =? and shareid = ?
459  });  });
460    
461  $sth->{insert_files} = $dbh->prepare(qq{  $sth->{insert_files} = $dbh->prepare(qq{
# Line 431  INSERT INTO files Line 464  INSERT INTO files
464          VALUES (?,?,?,?,?,?,?)          VALUES (?,?,?,?,?,?,?)
465  });  });
466    
467  foreach my $host_key (keys %{$hosts}) {  my @hosts = keys %{$hosts};
468    my $host_nr = 0;
469    
470    foreach my $host_key (@hosts) {
471    
472          my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";          my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";
473    
# Line 446  foreach my $host_key (keys %{$hosts}) { Line 482  foreach my $host_key (keys %{$hosts}) {
482                  $hostID = $dbh->last_insert_id(undef,undef,'hosts',undef);                  $hostID = $dbh->last_insert_id(undef,undef,'hosts',undef);
483          }          }
484    
485          print "host ".$hosts->{$host_key}->{'host'}.": ";          $host_nr++;
   
486          # get backups for a host          # get backups for a host
487          my @backups = $bpc->BackupInfoRead($hostname);          my @backups = $bpc->BackupInfoRead($hostname);
488          my $incs = scalar @backups;          my $incs = scalar @backups;
         print  "$incs increments\n";  
489    
490            my $host_header = sprintf("host %s [%d/%d]: %d increments\n",
491                    $hosts->{$host_key}->{'host'},
492                    $host_nr,
493                    ($#hosts + 1),
494                    $incs
495            );
496            print $host_header unless ($opt{q});
497    
498          my $inc_nr = 0;          my $inc_nr = 0;
499          $beenThere = {};          $beenThere = {};
500    
# Line 464  foreach my $host_key (keys %{$hosts}) { Line 506  foreach my $host_key (keys %{$hosts}) {
506                  my $backupNum = $backup->{'num'};                  my $backupNum = $backup->{'num'};
507                  my @backupShares = ();                  my @backupShares = ();
508    
509                  printf("%-10s %2d/%-2d #%-2d %s %5s/%5s files (date: %s dur: %s)\n",                  my $share_header = sprintf("%-10s %2d/%-2d #%-2d %s %5s/%5s files (date: %s dur: %s)\n",
510                          $hosts->{$host_key}->{'host'},                          $hosts->{$host_key}->{'host'},
511                          $inc_nr, $incs, $backupNum,                          $inc_nr, $incs, $backupNum,
512                          $backup->{type} || '?',                          $backup->{type} || '?',
# Line 472  foreach my $host_key (keys %{$hosts}) { Line 514  foreach my $host_key (keys %{$hosts}) {
514                          strftime($t_fmt,localtime($backup->{startTime})),                          strftime($t_fmt,localtime($backup->{startTime})),
515                          fmt_time($backup->{endTime} - $backup->{startTime})                          fmt_time($backup->{endTime} - $backup->{startTime})
516                  );                  );
517                    print $share_header unless ($opt{q});
518    
519                  my $files = BackupPC::View->new($bpc, $hostname, \@backups, 1);                  my $files = BackupPC::View->new($bpc, $hostname, \@backups, 1);
520                  foreach my $share ($files->shareList($backupNum)) {                  foreach my $share ($files->shareList($backupNum)) {
# Line 485  foreach my $host_key (keys %{$hosts}) { Line 528  foreach my $host_key (keys %{$hosts}) {
528                          # skip if allready in database!                          # skip if allready in database!
529                          next if ($count > 0);                          next if ($count > 0);
530    
531                            # dump host and share header for -q
532                            if ($opt{q}) {
533                                    if ($host_header) {
534                                            print $host_header;
535                                            $host_header = undef;
536                                    }
537                                    print $share_header;
538                            }
539    
540                          # dump some log                          # dump some log
541                          print curr_time," ", $share;                          print curr_time," ", $share;
542    
                         my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);  
   
543                          $sth->{insert_backups}->execute(                          $sth->{insert_backups}->execute(
544                                  $hostID,                                  $hostID,
545                                  $backupNum,                                  $backupNum,
546                                  $backup->{'endTime'},                                  $backup->{'endTime'},
547                                  substr($backup->{'type'},0,4),                                  substr($backup->{'type'},0,4),
548                                  $shareID,                                  $shareID,
                                 $size,  
549                          );                          );
550    
551                          print " commit";                          my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);
552                          $dbh->commit();  
553                            eval {
554                                    $sth->{update_backups_size}->execute(
555                                            $size,
556                                            $hostID,
557                                            $backupNum,
558                                            $backup->{'endTime'},
559                                            substr($backup->{'type'},0,4),
560                                            $shareID,
561                                    );
562                                    print " commit";
563                                    $dbh->commit();
564                            };
565                            if ($@) {
566                                    print " rollback";
567                                    $dbh->rollback();
568                            }
569    
570                          my $dur = (time() - $t) || 1;                          my $dur = (time() - $t) || 1;
571                          printf(" %d/%d files %d/%d dirs %0.2f MB [%.2f/s dur: %s]\n",                          printf(" %d/%d files %d/%d dirs %0.2f MB [%.2f/s dur: %s]\n",
# Line 563  sub found_in_db { Line 628  sub found_in_db {
628                  SELECT 1 FROM files                  SELECT 1 FROM files
629                  WHERE shareID = ? and                  WHERE shareID = ? and
630                          path = ? and                          path = ? and
631                          date = ? and                          size = ? and
632                          size = ?                          ( date = ? or date = ? or date = ? )
633                  LIMIT 1                  LIMIT 1
634          });          });
635    
636          my @param = ($shareID,$path,$date,$size);          my @param = ($shareID,$path,$size,$date, $date-$dst_offset, $date+$dst_offset);
637          $sth->{file_in_db}->execute(@param);          $sth->{file_in_db}->execute(@param);
638          my $rows = $sth->{file_in_db}->rows;          my $rows = $sth->{file_in_db}->rows;
639          print STDERR "## found_in_db($shareID,$path,$date,$size) ",( $rows ? '+' : '-' ), join(" ",@param), "\n" if ($debug >= 3);          print STDERR "## found_in_db($shareID,$path,$date,$size) ",( $rows ? '+' : '-' ), join(" ",@param), "\n" if ($debug >= 3);
# Line 618  sub recurseDir($$$$$$$$) { Line 683  sub recurseDir($$$$$$$$) {
683                                  $filesInBackup->{$path_key}->{'size'}                                  $filesInBackup->{$path_key}->{'size'}
684                          ));                          ));
685    
686                            my $key_dst_prev = join(" ", (
687                                    $shareID,
688                                    $dir,
689                                    $path_key,
690                                    $filesInBackup->{$path_key}->{'mtime'} - $dst_offset,
691                                    $filesInBackup->{$path_key}->{'size'}
692                            ));
693    
694                            my $key_dst_next = join(" ", (
695                                    $shareID,
696                                    $dir,
697                                    $path_key,
698                                    $filesInBackup->{$path_key}->{'mtime'} + $dst_offset,
699                                    $filesInBackup->{$path_key}->{'size'}
700                            ));
701    
702                          my $found;                          my $found;
703                          if (! defined($beenThere->{$key}) && ! ($found = found_in_db($key, @data)) ) {                          if (
704                                    ! defined($beenThere->{$key}) &&
705                                    ! defined($beenThere->{$key_dst_prev}) &&
706                                    ! defined($beenThere->{$key_dst_next}) &&
707                                    ! ($found = found_in_db($key, @data))
708                            ) {
709                                  print STDERR "# key: $key [", $beenThere->{$key},"]" if ($debug >= 2);                                  print STDERR "# key: $key [", $beenThere->{$key},"]" if ($debug >= 2);
710    
711                                  if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {                                  if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {

Legend:
Removed from v.202  
changed lines
  Added in v.326

  ViewVC Help
Powered by ViewVC 1.1.26