/[BackupPC]/trunk/bin/BackupPC_updatedb
This is repository of my old source code which isn't updated any more. Go to git.rot13.org for current projects!
ViewVC logotype

Diff of /trunk/bin/BackupPC_updatedb

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

revision 81 by dpavlin, Sun Aug 28 08:40:06 2005 UTC revision 242 by dpavlin, Fri Nov 18 19:40:47 2005 UTC
# Line 11  use Getopt::Std; Line 11  use Getopt::Std;
11  use Time::HiRes qw/time/;  use Time::HiRes qw/time/;
12  use File::Pid;  use File::Pid;
13  use POSIX qw/strftime/;  use POSIX qw/strftime/;
14    use BackupPC::SearchLib;
15    
16  use constant BPC_FTYPE_DIR => 5;  use constant BPC_FTYPE_DIR => 5;
17    use constant EST_CHUNK => 100000;
18    
19  my $debug = 0;  my $debug = 0;
20  $|=1;  $|=1;
# Line 41  my $beenThere = {}; Line 43  my $beenThere = {};
43  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";
44  my $user = $Conf{SearchUser} || '';  my $user = $Conf{SearchUser} || '';
45    
46    my $use_hest = $Conf{HyperEstraierIndex};
47    my ($index_path, $index_node_url) = BackupPC::SearchLib::getHyperEstraier_url($use_hest);
48    
49  my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });  my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });
50    
51  my %opt;  my %opt;
52    
53  if ( !getopts("cdm:v:i", \%opt ) ) {  if ( !getopts("cdm:v:ij", \%opt ) ) {
54          print STDERR <<EOF;          print STDERR <<EOF;
55  usage: $0 [-c|-d] [-m num] [-v|-v level] [-i]  usage: $0 [-c|-d] [-m num] [-v|-v level] [-i]
56    
# Line 54  Options: Line 59  Options:
59          -d      delete database before import          -d      delete database before import
60          -m num  import just num increments for one host          -m num  import just num increments for one host
61          -v num  set verbosity (debug) level (default $debug)          -v num  set verbosity (debug) level (default $debug)
62          -i      update HyperEstraier full text index          -i      update Hyper Estraier full text index
63            -j      update full text, don't check existing files
64    
65    Option -j is variation on -i. It will allow faster initial creation
66    of full-text index from existing database.
67    
68  EOF  EOF
69          exit 1;          exit 1;
70  }  }
# Line 64  if ($opt{v}) { Line 74  if ($opt{v}) {
74          $debug = $opt{v};          $debug = $opt{v};
75  }  }
76    
77  ## update index ##  #---- subs ----
 if ($opt{i}) {  
78    
79          my $index_dir = '/var/tmp/casket';  sub fmt_time {
80            my $t = shift || return;
81            my $out = "";
82            my ($ss,$mm,$hh) = gmtime($t);
83            $out .= "${hh}h" if ($hh);
84            $out .= sprintf("%02d:%02d", $mm,$ss);
85            return $out;
86    }
87    
88          print "updating HyperEstraier index $index_dir...";  sub curr_time {
89            return strftime($t_fmt,localtime());
90    }
91    
92          use HyperEstraier;  my $hest_db;
93          my $db = HyperEstraier::Database->new();  my $hest_node;
94          $db->open($index_dir, $HyperEstraier::Database::DBWRITER | $HyperEstraier::Database::DBCREAT);  
95    sub signal {
96          my $sth = $dbh->prepare(qq{          my($sig) = @_;
97                  SELECT          if ($hest_db) {
98                          files.id                        AS fid,                  print "\nCaught a SIG$sig--syncing database and shutting down\n";
99                          hosts.name                      AS hname,                  $hest_db->sync();
100                          shares.name                     AS sname,                  $hest_db->close();
101                          shares.share                    AS sharename,          }
102                          files.backupNum                 AS backupNum,          exit(0);
103                          files.name                      AS filename,  }
104                          files.path                      AS filepath,  
105                          files.date                      AS date,  $SIG{'INT'}  = \&signal;
106                          files.type                      AS filetype,  $SIG{'QUIT'} = \&signal;
                         files.size                      AS size,  
                         files.shareid                   AS shareid  
                 FROM files  
                         INNER JOIN shares       ON files.shareID=shares.ID  
                         INNER JOIN hosts        ON hosts.ID = shares.hostID  
                         INNER JOIN backups      ON backups.num = files.backupNum and backups.hostID = hosts.ID AND backups.shareID = shares.ID  
         });  
107    
108          $sth->execute();  sub hest_update {
109    
110          my $dot = int($sth->rows / 15);          my ($host_id, $share_id, $num) = @_;
111    
112          print $sth->rows, " files ($dot/#) ";          my $skip_check = $opt{j} && print STDERR "Skipping check for existing files -- this should be used only with initital import\n";
113    
114          sub fmt_date {          unless ($use_hest) {
115                  my $t = shift || return;                  print STDERR "HyperEstraier support not enabled in configuration\n";
116                  my $iso = BackupPC::Lib::timeStamp($t);                  return;
                 $iso =~ s/\s/T/;  
                 return $iso;  
117          }          }
118    
119          my $i = 0;          print curr_time," updating HyperEstraier:";
120          my $max = int($sth->rows / $dot);  
121            my $t = time();
122    
123          while (my $row = $sth->fetchrow_hashref()) {          my $offset = 0;
124            my $added = 0;
125    
126                  # create a document object          print " opening index $use_hest";
127                  my $doc = HyperEstraier::Document->new;          if ($index_path) {
128                    $hest_db = HyperEstraier::Database->new();
129                    $hest_db->open($TopDir . $index_path, $HyperEstraier::Database::DBWRITER | $HyperEstraier::Database::DBCREAT);
130                    print " directly";
131            } elsif ($index_node_url) {
132                    $hest_node ||= HyperEstraier::Node->new($index_node_url);
133                    $hest_node->set_auth('admin', 'admin');
134                    print " via node URL";
135            } else {
136                    die "don't know how to use HyperEstraier Index $use_hest";
137            }
138            print " increment is " . EST_CHUNK . " files:";
139    
140            my $results = 0;
141    
142                  # add attributes to the document object          do {
                 $doc->add_attr('@uri', 'file:///' . $row->{'fid'});  
143    
144                  foreach my $c (qw/fid hname sname sharename backupNum filename filepath shareid/) {                  my $where = '';
145                          $doc->add_attr($c, $row->{$c}) if ($row->{$c});                  my @data;
146                    if (defined($host_id) && defined($share_id) && defined($num)) {
147                            $where = qq{
148                            WHERE
149                                    hosts.id = ? AND
150                                    shares.id = ? AND
151                                    files.backupnum = ?
152                            };
153                            @data = ( $host_id, $share_id, $num );
154                  }                  }
155    
156                  $doc->add_attr('date', fmt_date($row->{'date'}));                  my $limit = sprintf('LIMIT '.EST_CHUNK.' OFFSET %d', $offset);
157    
158                  # add the body text to the document object                  my $sth = $dbh->prepare(qq{
159                  my $path = $row->{'filepath'};                          SELECT
160                  $doc->add_text($path);                                  files.id                        AS fid,
161                  $path =~ s/(.)/$1 /g;                                  hosts.name                      AS hname,
162                  $doc->add_hidden_text($path);                                  shares.name                     AS sname,
163                                    -- shares.share                 AS sharename,
164                  print STDERR $doc->dump_draft,"\n" if ($debug > 1);                                  files.backupnum                 AS backupnum,
165                                    -- files.name                   AS filename,
166                  # register the document object to the database                                  files.path                      AS filepath,
167                  $db->put_doc($doc, $HyperEstraier::Database::PDCLEAN);                                  files.date                      AS date,
168                                    files.type                      AS type,
169                  $i++;                                  files.size                      AS size,
170                  if ($i % $dot == 0) {                                  files.shareid                   AS shareid,
171                          print "$max ";                                  backups.date                    AS backup_date
172                          $max--;                          FROM files
173                                    INNER JOIN shares       ON files.shareID=shares.ID
174                                    INNER JOIN hosts        ON hosts.ID = shares.hostID
175                                    INNER JOIN backups      ON backups.num = files.backupNum and backups.hostID = hosts.ID AND backups.shareID = shares.ID
176                            $where
177                            $limit
178                    });
179    
180                    $sth->execute(@data);
181                    $results = $sth->rows;
182    
183                    if ($results == 0) {
184                            print " - no new files\n";
185                            last;
186                  }                  }
187    
188          }                  sub fmt_date {
189                            my $t = shift || return;
190                            my $iso = BackupPC::Lib::timeStamp($t);
191                            $iso =~ s/\s/T/;
192                            return $iso;
193                    }
194    
195                    while (my $row = $sth->fetchrow_hashref()) {
196    
197          print "sync";                          my $fid = $row->{'fid'} || die "no fid?";
198          $db->sync();                          my $uri = 'file:///' . $fid;
         print " close\n";  
         $db->close();  
199    
200          exit;                          unless ($skip_check) {
201                                    my $id = ($hest_db || $hest_node)->uri_to_id($uri);
202                                    next unless ($id == -1);
203                            }
204    
205                            # create a document object
206                            my $doc = HyperEstraier::Document->new;
207    
208                            # add attributes to the document object
209                            $doc->add_attr('@uri', $uri);
210    
211                            foreach my $c (@{ $sth->{NAME} }) {
212                                    $doc->add_attr($c, $row->{$c}) if (defined($row->{$c}));
213                            }
214    
215                            #$doc->add_attr('@cdate', fmt_date($row->{'date'}));
216    
217                            # add the body text to the document object
218                            my $path = $row->{'filepath'};
219                            $doc->add_text($path);
220                            $path =~ s/(.)/$1 /g;
221                            $doc->add_hidden_text($path);
222    
223                            print STDERR $doc->dump_draft,"\n" if ($debug > 1);
224    
225                            # register the document object to the database
226                            if ($hest_db) {
227                                    $hest_db->put_doc($doc, $HyperEstraier::Database::PDCLEAN);
228                            } elsif ($hest_node) {
229                                    $hest_node->put_doc($doc);
230                            } else {
231                                    die "not supported";
232                            }
233                            $added++;
234                    }
235    
236                    print " $added";
237                    $hest_db->sync() if ($index_path);
238    
239                    $offset += EST_CHUNK;
240    
241            } while ($results == EST_CHUNK);
242    
243            if ($index_path) {
244                    print ", close";
245                    $hest_db->close();
246            }
247    
248            my $dur = (time() - $t) || 1;
249            printf(" [%.2f/s dur: %s]\n",
250                    ( $added / $dur ),
251                    fmt_time($dur)
252            );
253  }  }
254    
255  ###################################create tables############################3  #---- /subs ----
256    
257    
258    ## update index ##
259    if (($opt{i} || $opt{j} || ($index_path && ! -e $TopDir . $index_path)) && !$opt{c}) {
260            # update all
261            print "force update of HyperEstraier index ";
262            print "importing existing data" unless (-e $TopDir . $index_path);
263            print "by -i flag" if ($opt{i});
264            print "by -j flag" if ($opt{j});
265            print "\n";
266            hest_update();
267    }
268    
269    ## create tables ##
270  if ($opt{c}) {  if ($opt{c}) {
271          sub do_index {          sub do_index {
272                  my $index = shift || return;                  my $index = shift || return;
273                  my ($table,$col,$unique) = split(/_/, $index);                  my ($table,$col,$unique) = split(/:/, $index);
274                  $unique ||= '';                  $unique ||= '';
275                  $index =~ s/,/_/g;                  $index =~ s/\W+/_/g;
276                    print "$index on $table($col)" . ( $unique ? "u" : "" ) . " ";
277                  $dbh->do(qq{ create $unique index $index on $table($col) });                  $dbh->do(qq{ create $unique index $index on $table($col) });
278          }          }
279    
280          print "creating tables...\n";          print "creating tables...\n";
281          
282          $dbh->do(qq{          $dbh->do( qq{
283                  create table hosts (                  create table hosts (
284                          ID      SERIAL          PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
285                          name    VARCHAR(30)     NOT NULL,                          name    VARCHAR(30)     NOT NULL,
286                          IP      VARCHAR(15)                          IP      VARCHAR(15)
287                  );                              );            
288          });  
                 
         $dbh->do(qq{  
289                  create table shares (                  create table shares (
290                          ID      SERIAL          PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
291                          hostID  INTEGER         NOT NULL references hosts(id),                          hostID  INTEGER         NOT NULL references hosts(id),
292                          name    VARCHAR(30)     NOT NULL,                          name    VARCHAR(30)     NOT NULL,
293                          share   VARCHAR(200)    NOT NULL,                          share   VARCHAR(200)    NOT NULL
                         localpath VARCHAR(200)        
294                  );                              );            
295          });  
296                            create table dvds (
297          $dbh->do(qq{                          ID      SERIAL          PRIMARY KEY,
298                            num     INTEGER         NOT NULL,
299                            name    VARCHAR(255)    NOT NULL,
300                            mjesto  VARCHAR(255)
301                    );
302    
303                  create table backups (                  create table backups (
304                            id      serial,
305                          hostID  INTEGER         NOT NULL references hosts(id),                          hostID  INTEGER         NOT NULL references hosts(id),
306                          num     INTEGER         NOT NULL,                          num     INTEGER         NOT NULL,
307                          date    integer         NOT NULL,                          date    integer         NOT NULL,
308                          type    CHAR(4)         not null,                          type    CHAR(4)         not null,
309                          shareID integer         not null references shares(id),                          shareID integer         not null references shares(id),
310                          size    integer         not null,                          size    bigint          not null,
311                          PRIMARY KEY(hostID, num, shareID)                          inc_size bigint         not null default -1,
312                            inc_deleted boolean     default false,
313                            parts   integer         not null default 1,
314                            PRIMARY KEY(id)
315                  );                              );            
         });  
316    
317          #do_index('backups_hostid,num_unique');                  create table files (
318                            ID              SERIAL,
319                            shareID         INTEGER NOT NULL references shares(id),
320                            backupNum       INTEGER NOT NULL,
321                            name            VARCHAR(255) NOT NULL,
322                            path            VARCHAR(255) NOT NULL,
323                            date            integer NOT NULL,
324                            type            INTEGER NOT NULL,
325                            size            bigint  NOT NULL,
326                            primary key(id)
327                    );
328    
329                    create table archive (
330                            id              serial,
331                            dvd_nr          int not null,
332                            total_size      bigint default -1,
333                            note            text,
334                            username        varchar(20) not null,
335                            date            timestamp default now(),
336                            primary key(id)
337                    );      
338    
339                    create table archive_backup (
340                            archive_id      int not null references archive(id) on delete cascade,
341                            backup_id       int not null references backups(id),
342                            primary key(archive_id, backup_id)
343                    );
344    
345          $dbh->do(qq{                  create table archive_burned (
346                  create table dvds (                          archive_id      int references archive(id),
347                          ID      SERIAL          PRIMARY KEY,                          date            timestamp default now(),
348                          num     INTEGER         NOT NULL,                          part            int not null default 1,
349                          name    VARCHAR(255)    NOT NULL,                          copy            int not null default 1,
350                          mjesto  VARCHAR(255)                          iso_size bigint default -1
351                  );                  );
         });  
352    
353          $dbh->do(qq{                      create table backup_parts (
354                  create table files (                          id serial,
355                          ID      SERIAL          PRIMARY KEY,                            backup_id int references backups(id),
356                          shareID INTEGER         NOT NULL references shares(id),                          part_nr int not null check (part_nr > 0),
357                          backupNum  INTEGER      NOT NULL,                          tar_size bigint not null check (tar_size > 0),
358                          name       VARCHAR(255) NOT NULL,                          size bigint not null check (size > 0),
359                          path       VARCHAR(255) NOT NULL,                          md5 text not null,
360                          date       integer      NOT NULL,                          items int not null check (items > 0),
361                          type       INTEGER      NOT NULL,                          date timestamp default now(),
362                          size       INTEGER      NOT NULL,                          primary key(id)
                         dvdid      INTEGER      references dvds(id)      
363                  );                  );
364          });          });
365    
366          print "creating indexes:";          print "creating indexes: ";
367    
368          foreach my $index (qw(          foreach my $index (qw(
369                  hosts_name                  hosts:name
370                  backups_hostID                  backups:hostID
371                  backups_num                  backups:num
372                  shares_hostID                  backups:shareID
373                  shares_name                  shares:hostID
374                  files_shareID                  shares:name
375                  files_path                  files:shareID
376                  files_name                  files:path
377                  files_date                  files:name
378                  files_size                  files:date
379                    files:size
380                    archive:dvd_nr
381                    archive_burned:archive_id
382                    backup_parts:backup_id,part_nr
383          )) {          )) {
                 print " $index";  
384                  do_index($index);                  do_index($index);
385          }          }
386    
387            print " creating sequence: ";
388            foreach my $seq (qw/dvd_nr/) {
389                    print "$seq ";
390                    $dbh->do( qq{ CREATE SEQUENCE $seq } );
391            }
392    
393    
394          print "...\n";          print "...\n";
395    
396          $dbh->commit;          $dbh->commit;
397    
398  }  }
399    
400    ## delete data before inseting ##
401  if ($opt{d}) {  if ($opt{d}) {
402          print "deleting ";          print "deleting ";
403          foreach my $table (qw(files dvds backups shares hosts)) {          foreach my $table (qw(files dvds backups shares hosts)) {
# Line 253  if ($opt{d}) { Line 409  if ($opt{d}) {
409          $dbh->commit;          $dbh->commit;
410  }  }
411    
412  #################################INSERT VALUES#############################  ## insert new values ##
413    
414  # get hosts  # get hosts
415  $hosts = $bpc->HostInfoRead();  $hosts = $bpc->HostInfoRead();
# Line 278  WHERE hostID=? AND num=? AND shareid=? Line 434  WHERE hostID=? AND num=? AND shareid=?
434    
435  $sth->{insert_backups} = $dbh->prepare(qq{  $sth->{insert_backups} = $dbh->prepare(qq{
436  INSERT INTO backups (hostID, num, date, type, shareid, size)  INSERT INTO backups (hostID, num, date, type, shareid, size)
437  VALUES (?,?,?,?,?,?)  VALUES (?,?,?,?,?,-1)
438    });
439    
440    $sth->{update_backups_size} = $dbh->prepare(qq{
441    UPDATE backups SET size = ?
442    WHERE hostID = ? and num = ? and date = ? and type =? and shareid = ?
443  });  });
444    
445  $sth->{insert_files} = $dbh->prepare(qq{  $sth->{insert_files} = $dbh->prepare(qq{
# Line 287  INSERT INTO files Line 448  INSERT INTO files
448          VALUES (?,?,?,?,?,?,?)          VALUES (?,?,?,?,?,?,?)
449  });  });
450    
 sub fmt_time {  
         my $t = shift || return;  
         my $out = "";  
         my ($ss,$mm,$hh) = gmtime($t);  
         $out .= "${hh}h" if ($hh);  
         $out .= sprintf("%02d:%02d", $mm,$ss);  
         return $out;  
 }  
   
451  foreach my $host_key (keys %{$hosts}) {  foreach my $host_key (keys %{$hosts}) {
452    
453          my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";          my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";
# Line 351  foreach my $host_key (keys %{$hosts}) { Line 503  foreach my $host_key (keys %{$hosts}) {
503                          next if ($count > 0);                          next if ($count > 0);
504    
505                          # dump some log                          # dump some log
506                          print strftime($t_fmt,localtime())," ", $share;                          print curr_time," ", $share;
   
                         my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);  
507    
508                          $sth->{insert_backups}->execute(                          $sth->{insert_backups}->execute(
509                                  $hostID,                                  $hostID,
510                                  $backupNum,                                  $backupNum,
511                                  $backup->{'endTime'},                                  $backup->{'endTime'},
512                                  $backup->{'type'},                                  substr($backup->{'type'},0,4),
513                                  $shareID,                                  $shareID,
514                            );
515    
516                            my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);
517    
518                            $sth->{update_backups_size}->execute(
519                                  $size,                                  $size,
520                                    $hostID,
521                                    $backupNum,
522                                    $backup->{'endTime'},
523                                    substr($backup->{'type'},0,4),
524                                    $shareID,
525                          );                          );
526    
527                          print " commit";                          print " commit";
# Line 374  foreach my $host_key (keys %{$hosts}) { Line 534  foreach my $host_key (keys %{$hosts}) {
534                                  ( ($f+$d) / $dur ),                                  ( ($f+$d) / $dur ),
535                                  fmt_time($dur)                                  fmt_time($dur)
536                          );                          );
537    
538                            hest_update($hostID, $shareID, $backupNum) if ($nf + $nd > 0);
539                  }                  }
540    
541          }          }
# Line 402  sub getShareID() { Line 564  sub getShareID() {
564    
565          $sth->{insert_share} ||= $dbh->prepare(qq{          $sth->{insert_share} ||= $dbh->prepare(qq{
566                  INSERT INTO shares                  INSERT INTO shares
567                          (hostID,name,share,localpath)                          (hostID,name,share)
568                  VALUES (?,?,?,?)                  VALUES (?,?,?)
569          });          });
570    
571          my $drop_down = $hostname . '/' . $share;          my $drop_down = $hostname . '/' . $share;
572          $drop_down =~ s#//+#/#g;          $drop_down =~ s#//+#/#g;
573    
574          $sth->{insert_share}->execute($hostID,$share, $drop_down ,undef);          $sth->{insert_share}->execute($hostID,$share, $drop_down);
575          return $dbh->last_insert_id(undef,undef,'shares',undef);          return $dbh->last_insert_id(undef,undef,'shares',undef);
576  }  }
577    
# Line 481  sub recurseDir($$$$$$$$) { Line 643  sub recurseDir($$$$$$$$) {
643                                  $filesInBackup->{$path_key}->{'size'}                                  $filesInBackup->{$path_key}->{'size'}
644                          ));                          ));
645    
646                            # daylight saving time change offset for 1h
647                            my $dst_offset = 60 * 60;
648    
649                            my $key_dst_prev = join(" ", (
650                                    $shareID,
651                                    $dir,
652                                    $path_key,
653                                    $filesInBackup->{$path_key}->{'mtime'} - $dst_offset,
654                                    $filesInBackup->{$path_key}->{'size'}
655                            ));
656    
657                            my $key_dst_next = join(" ", (
658                                    $shareID,
659                                    $dir,
660                                    $path_key,
661                                    $filesInBackup->{$path_key}->{'mtime'} + $dst_offset,
662                                    $filesInBackup->{$path_key}->{'size'}
663                            ));
664    
665                          my $found;                          my $found;
666                          if (! defined($beenThere->{$key}) && ! ($found = found_in_db($key, @data)) ) {                          if (
667                                    ! defined($beenThere->{$key}) &&
668                                    ! defined($beenThere->{$key_dst_prev}) &&
669                                    ! defined($beenThere->{$key_dst_next}) &&
670                                    ! ($found = found_in_db($key, @data))
671                            ) {
672                                  print STDERR "# key: $key [", $beenThere->{$key},"]" if ($debug >= 2);                                  print STDERR "# key: $key [", $beenThere->{$key},"]" if ($debug >= 2);
673    
674                                  if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {                                  if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {

Legend:
Removed from v.81  
changed lines
  Added in v.242

  ViewVC Help
Powered by ViewVC 1.1.26