/[BackupPC]/trunk/bin/BackupPC_updatedb
This is repository of my old source code which isn't updated any more. Go to git.rot13.org for current projects!
ViewVC logotype

Diff of /trunk/bin/BackupPC_updatedb

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

revision 70 by dpavlin, Wed Aug 24 17:12:22 2005 UTC revision 235 by dpavlin, Thu Nov 10 15:07:10 2005 UTC
# Line 11  use Getopt::Std; Line 11  use Getopt::Std;
11  use Time::HiRes qw/time/;  use Time::HiRes qw/time/;
12  use File::Pid;  use File::Pid;
13  use POSIX qw/strftime/;  use POSIX qw/strftime/;
14    use BackupPC::SearchLib;
15    
16  use constant BPC_FTYPE_DIR => 5;  use constant BPC_FTYPE_DIR => 5;
17    use constant EST_CHUNK => 100000;
18    
19  my $debug = 0;  my $debug = 0;
20  $|=1;  $|=1;
# Line 41  my $beenThere = {}; Line 43  my $beenThere = {};
43  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";
44  my $user = $Conf{SearchUser} || '';  my $user = $Conf{SearchUser} || '';
45    
46    my $use_hest = $Conf{HyperEstraierIndex};
47    my ($index_path, $index_node_url) = BackupPC::SearchLib::getHyperEstraier_url($use_hest);
48    
49  my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });  my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });
50    
51  my %opt;  my %opt;
52    
53  if ( !getopts("cdm:v:", \%opt ) ) {  if ( !getopts("cdm:v:ij", \%opt ) ) {
54          print STDERR <<EOF;          print STDERR <<EOF;
55  usage: $0 [-c|-d] [-m num] [-v|-v level]  usage: $0 [-c|-d] [-m num] [-v|-v level] [-i]
56    
57  Options:  Options:
58          -c      create database on first use          -c      create database on first use
59          -d      delete database before import          -d      delete database before import
60          -m num  import just num increments for one host          -m num  import just num increments for one host
61          -v num  set verbosity (debug) level (default $debug)          -v num  set verbosity (debug) level (default $debug)
62            -i      update Hyper Estraier full text index
63            -j      update full text, don't check existing files
64    
65    Option -j is variation on -i. It will allow faster initial creation
66    of full-text index from existing database.
67    
68  EOF  EOF
69          exit 1;          exit 1;
70  }  }
71    
72  ###################################create tables############################3  if ($opt{v}) {
73            print "Debug level at $opt{v}\n";
74            $debug = $opt{v};
75    }
76    
77    #---- subs ----
78    
79    sub fmt_time {
80            my $t = shift || return;
81            my $out = "";
82            my ($ss,$mm,$hh) = gmtime($t);
83            $out .= "${hh}h" if ($hh);
84            $out .= sprintf("%02d:%02d", $mm,$ss);
85            return $out;
86    }
87    
88    sub curr_time {
89            return strftime($t_fmt,localtime());
90    }
91    
92    my $hest_db;
93    my $hest_node;
94    
95    sub signal {
96            my($sig) = @_;
97            if ($hest_db) {
98                    print "\nCaught a SIG$sig--syncing database and shutting down\n";
99                    $hest_db->sync();
100                    $hest_db->close();
101            }
102            exit(0);
103    }
104    
105    $SIG{'INT'}  = \&signal;
106    $SIG{'QUIT'} = \&signal;
107    
108    sub hest_update {
109    
110            my ($host_id, $share_id, $num) = @_;
111    
112            my $skip_check = $opt{j} && print STDERR "Skipping check for existing files -- this should be used only with initital import\n";
113    
114            unless ($use_hest) {
115                    print STDERR "HyperEstraier support not enabled in configuration\n";
116                    return;
117            }
118    
119            print curr_time," updating HyperEstraier:";
120    
121            my $t = time();
122    
123            my $offset = 0;
124            my $added = 0;
125    
126            print " opening index $use_hest";
127            if ($index_path) {
128                    $hest_db = HyperEstraier::Database->new();
129                    $hest_db->open($TopDir . $index_path, $HyperEstraier::Database::DBWRITER | $HyperEstraier::Database::DBCREAT);
130                    print " directly";
131            } elsif ($index_node_url) {
132                    $hest_node ||= HyperEstraier::Node->new($index_node_url);
133                    $hest_node->set_auth('admin', 'admin');
134                    print " via node URL";
135            } else {
136                    die "don't know how to use HyperEstraier Index $use_hest";
137            }
138            print " increment is " . EST_CHUNK . " files:";
139    
140            my $results = 0;
141    
142            do {
143    
144                    my $where = '';
145                    my @data;
146                    if (defined($host_id) && defined($share_id) && defined($num)) {
147                            $where = qq{
148                            WHERE
149                                    hosts.id = ? AND
150                                    shares.id = ? AND
151                                    files.backupnum = ?
152                            };
153                            @data = ( $host_id, $share_id, $num );
154                    }
155    
156                    my $limit = sprintf('LIMIT '.EST_CHUNK.' OFFSET %d', $offset);
157    
158                    my $sth = $dbh->prepare(qq{
159                            SELECT
160                                    files.id                        AS fid,
161                                    hosts.name                      AS hname,
162                                    shares.name                     AS sname,
163                                    -- shares.share                 AS sharename,
164                                    files.backupnum                 AS backupnum,
165                                    -- files.name                   AS filename,
166                                    files.path                      AS filepath,
167                                    files.date                      AS date,
168                                    files.type                      AS type,
169                                    files.size                      AS size,
170                                    files.shareid                   AS shareid,
171                                    backups.date                    AS backup_date
172                            FROM files
173                                    INNER JOIN shares       ON files.shareID=shares.ID
174                                    INNER JOIN hosts        ON hosts.ID = shares.hostID
175                                    INNER JOIN backups      ON backups.num = files.backupNum and backups.hostID = hosts.ID AND backups.shareID = shares.ID
176                            $where
177                            $limit
178                    });
179    
180                    $sth->execute(@data);
181                    $results = $sth->rows;
182    
183                    if ($results == 0) {
184                            print " - no new files\n";
185                            last;
186                    }
187    
188                    sub fmt_date {
189                            my $t = shift || return;
190                            my $iso = BackupPC::Lib::timeStamp($t);
191                            $iso =~ s/\s/T/;
192                            return $iso;
193                    }
194    
195                    while (my $row = $sth->fetchrow_hashref()) {
196    
197                            my $fid = $row->{'fid'} || die "no fid?";
198                            my $uri = 'file:///' . $fid;
199    
200                            unless ($skip_check) {
201                                    my $id = ($hest_db || $hest_node)->uri_to_id($uri);
202                                    next unless ($id == -1);
203                            }
204    
205                            # create a document object
206                            my $doc = HyperEstraier::Document->new;
207    
208                            # add attributes to the document object
209                            $doc->add_attr('@uri', $uri);
210    
211                            foreach my $c (@{ $sth->{NAME} }) {
212                                    $doc->add_attr($c, $row->{$c}) if ($row->{$c});
213                            }
214    
215                            #$doc->add_attr('@cdate', fmt_date($row->{'date'}));
216    
217                            # add the body text to the document object
218                            my $path = $row->{'filepath'};
219                            $doc->add_text($path);
220                            $path =~ s/(.)/$1 /g;
221                            $doc->add_hidden_text($path);
222    
223                            print STDERR $doc->dump_draft,"\n" if ($debug > 1);
224    
225                            # register the document object to the database
226                            if ($hest_db) {
227                                    $hest_db->put_doc($doc, $HyperEstraier::Database::PDCLEAN);
228                            } elsif ($hest_node) {
229                                    $hest_node->put_doc($doc);
230                            } else {
231                                    die "not supported";
232                            }
233                            $added++;
234                    }
235    
236                    print " $added";
237                    $hest_db->sync() if ($index_path);
238    
239                    $offset += EST_CHUNK;
240    
241            } while ($results == EST_CHUNK);
242    
243            if ($index_path) {
244                    print ", close";
245                    $hest_db->close();
246            }
247    
248            my $dur = (time() - $t) || 1;
249            printf(" [%.2f/s dur: %s]\n",
250                    ( $added / $dur ),
251                    fmt_time($dur)
252            );
253    }
254    
255    #---- /subs ----
256    
257    
258    ## update index ##
259    if (($opt{i} || $opt{j} || ($index_path && ! -e $index_path)) && !$opt{c}) {
260            # update all
261            print "force update of HyperEstraier index ";
262            print "importing existing data" unless (-e $index_path);
263            print "by -i flag" if ($opt{i});
264            print "by -j flag" if ($opt{j});
265            print "\n";
266            hest_update();
267    }
268    
269    ## create tables ##
270  if ($opt{c}) {  if ($opt{c}) {
271          sub do_index {          sub do_index {
272                  my $index = shift || return;                  my $index = shift || return;
273                  my ($table,$col,$unique) = split(/_/, $index);                  my ($table,$col,$unique) = split(/:/, $index);
274                  $unique ||= '';                  $unique ||= '';
275                  $index =~ s/,/_/g;                  $index =~ s/\W+/_/g;
276                    print "$index on $table($col)" . ( $unique ? "u" : "" ) . " ";
277                  $dbh->do(qq{ create $unique index $index on $table($col) });                  $dbh->do(qq{ create $unique index $index on $table($col) });
278          }          }
279    
280          print "creating tables...\n";          print "creating tables...\n";
281          
282          $dbh->do(qq{          $dbh->do( qq{
283                  create table hosts (                  create table hosts (
284                          ID      SERIAL          PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
285                          name    VARCHAR(30)     NOT NULL,                          name    VARCHAR(30)     NOT NULL,
286                          IP      VARCHAR(15)                          IP      VARCHAR(15)
287                  );                              );            
288          });  
                 
         $dbh->do(qq{  
289                  create table shares (                  create table shares (
290                          ID      SERIAL          PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
291                          hostID  INTEGER         NOT NULL references hosts(id),                          hostID  INTEGER         NOT NULL references hosts(id),
292                          name    VARCHAR(30)     NOT NULL,                          name    VARCHAR(30)     NOT NULL,
293                          share   VARCHAR(200)    NOT NULL,                          share   VARCHAR(200)    NOT NULL
                         localpath VARCHAR(200)        
294                  );                              );            
295          });  
296                            create table dvds (
297          $dbh->do(qq{                          ID      SERIAL          PRIMARY KEY,
298                            num     INTEGER         NOT NULL,
299                            name    VARCHAR(255)    NOT NULL,
300                            mjesto  VARCHAR(255)
301                    );
302    
303                  create table backups (                  create table backups (
304                            id      serial,
305                          hostID  INTEGER         NOT NULL references hosts(id),                          hostID  INTEGER         NOT NULL references hosts(id),
306                          num     INTEGER         NOT NULL,                          num     INTEGER         NOT NULL,
307                          date    integer         NOT NULL,                          date    integer         NOT NULL,
308                          type    CHAR(4)         not null,                          type    CHAR(4)         not null,
309                          shareID integer         not null references shares(id),                          shareID integer         not null references shares(id),
310                          size    integer         not null,                          size    bigint          not null,
311                          PRIMARY KEY(hostID, num, shareID)                          inc_size bigint         not null default -1,
312                            inc_deleted boolean     default false,
313                            parts   integer         not null default 1,
314                            PRIMARY KEY(id)
315                  );                              );            
         });  
316    
317          #do_index('backups_hostid,num_unique');                  create table files (
318                            ID              SERIAL,
319                            shareID         INTEGER NOT NULL references shares(id),
320                            backupNum       INTEGER NOT NULL,
321                            name            VARCHAR(255) NOT NULL,
322                            path            VARCHAR(255) NOT NULL,
323                            date            integer NOT NULL,
324                            type            INTEGER NOT NULL,
325                            size            bigint  NOT NULL,
326                            primary key(id)
327                    );
328    
329          $dbh->do(qq{                  create table archive (
330                  create table dvds (                          id              serial,
331                          ID      SERIAL          PRIMARY KEY,                          dvd_nr          int not null,
332                          num     INTEGER         NOT NULL,                          total_size      bigint default -1,
333                          name    VARCHAR(255)    NOT NULL,                          note            text,
334                          mjesto  VARCHAR(255)                          username        varchar(20) not null,
335                            date            timestamp default now(),
336                            primary key(id)
337                    );      
338    
339                    create table archive_backup (
340                            archive_id      int not null references archive(id) on delete cascade,
341                            backup_id       int not null references backups(id),
342                            primary key(archive_id, backup_id)
343                  );                  );
         });  
344    
345          $dbh->do(qq{                      create table archive_burned (
346                  create table files (                          archive_id      int references archive(id),
347                          ID      SERIAL          PRIMARY KEY,                            date            timestamp default now(),
348                          shareID INTEGER         NOT NULL references shares(id),                          part            int not null default 1,
349                          backupNum  INTEGER      NOT NULL,                          copy            int not null default 1,
350                          name       VARCHAR(255) NOT NULL,                          iso_size bigint default -1
351                          path       VARCHAR(255) NOT NULL,                  );
352                          date       integer      NOT NULL,  
353                          type       INTEGER      NOT NULL,                  create table backup_parts (
354                          size       INTEGER      NOT NULL,                          id serial,
355                          dvdid      INTEGER      references dvds(id)                              backup_id int references backups(id),
356                            part_nr int not null check (part_nr > 0),
357                            tar_size bigint not null check (tar_size > 0),
358                            size bigint not null check (size > 0),
359                            md5 text not null,
360                            items int not null check (items > 0),
361                            date timestamp default now(),
362                            primary key(id)
363                  );                  );
364          });          });
365    
366          print "creating indexes:";          print "creating indexes: ";
367    
368          foreach my $index (qw(          foreach my $index (qw(
369                  hosts_name                  hosts:name
370                  backups_hostID                  backups:hostID
371                  backups_num                  backups:num
372                  shares_hostID                  backups:shareID
373                  shares_name                  shares:hostID
374                  files_shareID                  shares:name
375                  files_path                  files:shareID
376                  files_name                  files:path
377                  files_date                  files:name
378                  files_size                  files:date
379                    files:size
380                    archive:dvd_nr
381                    archive_burned:archive_id
382                    backup_parts:backup_id,part_nr
383          )) {          )) {
                 print " $index";  
384                  do_index($index);                  do_index($index);
385          }          }
386    
387            print " creating sequence: ";
388            foreach my $seq (qw/dvd_nr/) {
389                    print "$seq ";
390                    $dbh->do( qq{ CREATE SEQUENCE $seq } );
391            }
392    
393    
394          print "...\n";          print "...\n";
395    
396          $dbh->commit;          $dbh->commit;
397    
398  }  }
399    
400    ## delete data before inseting ##
401  if ($opt{d}) {  if ($opt{d}) {
402          print "deleting ";          print "deleting ";
403          foreach my $table (qw(files dvds backups shares hosts)) {          foreach my $table (qw(files dvds backups shares hosts)) {
# Line 160  if ($opt{d}) { Line 409  if ($opt{d}) {
409          $dbh->commit;          $dbh->commit;
410  }  }
411    
412  if ($opt{v}) {  ## insert new values ##
         print "Debug level at $opt{v}\n";  
         $debug = $opt{v};  
 }  
   
 #################################INSERT VALUES#############################  
413    
414  # get hosts  # get hosts
415  $hosts = $bpc->HostInfoRead();  $hosts = $bpc->HostInfoRead();
# Line 199  INSERT INTO files Line 443  INSERT INTO files
443          VALUES (?,?,?,?,?,?,?)          VALUES (?,?,?,?,?,?,?)
444  });  });
445    
 sub fmt_time {  
         my $t = shift || return;  
         my $out = "";  
         my ($ss,$mm,$hh) = gmtime($t);  
         $out .= "${hh}h" if ($hh);  
         $out .= sprintf("%02d:%02d", $mm,$ss);  
         return $out;  
 }  
   
446  foreach my $host_key (keys %{$hosts}) {  foreach my $host_key (keys %{$hosts}) {
447    
448          my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";          my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";
# Line 263  foreach my $host_key (keys %{$hosts}) { Line 498  foreach my $host_key (keys %{$hosts}) {
498                          next if ($count > 0);                          next if ($count > 0);
499    
500                          # dump some log                          # dump some log
501                          print strftime($t_fmt,localtime())," ", $share;                          print curr_time," ", $share;
502    
503                          my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);                          my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);
504    
# Line 271  foreach my $host_key (keys %{$hosts}) { Line 506  foreach my $host_key (keys %{$hosts}) {
506                                  $hostID,                                  $hostID,
507                                  $backupNum,                                  $backupNum,
508                                  $backup->{'endTime'},                                  $backup->{'endTime'},
509                                  $backup->{'type'},                                  substr($backup->{'type'},0,4),
510                                  $shareID,                                  $shareID,
511                                  $size,                                  $size,
512                          );                          );
# Line 286  foreach my $host_key (keys %{$hosts}) { Line 521  foreach my $host_key (keys %{$hosts}) {
521                                  ( ($f+$d) / $dur ),                                  ( ($f+$d) / $dur ),
522                                  fmt_time($dur)                                  fmt_time($dur)
523                          );                          );
524    
525                            hest_update($hostID, $shareID, $backupNum) if ($nf + $nd > 0);
526                  }                  }
527    
528          }          }
# Line 314  sub getShareID() { Line 551  sub getShareID() {
551    
552          $sth->{insert_share} ||= $dbh->prepare(qq{          $sth->{insert_share} ||= $dbh->prepare(qq{
553                  INSERT INTO shares                  INSERT INTO shares
554                          (hostID,name,share,localpath)                          (hostID,name,share)
555                  VALUES (?,?,?,?)                  VALUES (?,?,?)
556          });          });
557    
558          my $drop_down = $hostname . '/' . $share;          my $drop_down = $hostname . '/' . $share;
559          $drop_down =~ s#//+#/#g;          $drop_down =~ s#//+#/#g;
560    
561          $sth->{insert_share}->execute($hostID,$share, $drop_down ,undef);          $sth->{insert_share}->execute($hostID,$share, $drop_down);
562          return $dbh->last_insert_id(undef,undef,'shares',undef);          return $dbh->last_insert_id(undef,undef,'shares',undef);
563  }  }
564    
# Line 330  sub found_in_db { Line 567  sub found_in_db {
567          my @data = @_;          my @data = @_;
568          shift @data;          shift @data;
569    
570          my ($key, $shareID,undef,$name,$path,undef,$date,undef,$size) = @_;          my ($key, $shareID,undef,$name,$path,$date,undef,$size) = @_;
571    
572          return $beenThere->{$key} if (defined($beenThere->{$key}));          return $beenThere->{$key} if (defined($beenThere->{$key}));
573    
# Line 340  sub found_in_db { Line 577  sub found_in_db {
577                          path = ? and                          path = ? and
578                          date = ? and                          date = ? and
579                          size = ?                          size = ?
580                    LIMIT 1
581          });          });
582    
583          my @param = ($shareID,$path,$date,$size);          my @param = ($shareID,$path,$date,$size);
584          $sth->{file_in_db}->execute(@param);          $sth->{file_in_db}->execute(@param);
585          my $rows = $sth->{file_in_db}->rows;          my $rows = $sth->{file_in_db}->rows;
586          print STDERR "## found_in_db ",( $rows ? '+' : '-' ), join(" ",@param), "\n" if ($debug >= 3);          print STDERR "## found_in_db($shareID,$path,$date,$size) ",( $rows ? '+' : '-' ), join(" ",@param), "\n" if ($debug >= 3);
587    
588          $beenThere->{$key}++;          $beenThere->{$key}++;
589    

Legend:
Removed from v.70  
changed lines
  Added in v.235

  ViewVC Help
Powered by ViewVC 1.1.26