/[BackupPC]/trunk/bin/BackupPC_updatedb
This is repository of my old source code which isn't updated any more. Go to git.rot13.org for current projects!
ViewVC logotype

Diff of /trunk/bin/BackupPC_updatedb

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

revision 18 by dpavlin, Mon Jul 11 14:31:51 2005 UTC revision 240 by dpavlin, Thu Nov 17 17:22:31 2005 UTC
# Line 1  Line 1 
1  #!/usr/local/bin/perl -w  #!/usr/local/bin/perl -w
2    
3  use strict;  use strict;
 use DBI;  
4  use lib "__INSTALLDIR__/lib";  use lib "__INSTALLDIR__/lib";
5    
6    use DBI;
7  use BackupPC::Lib;  use BackupPC::Lib;
8  use BackupPC::View;  use BackupPC::View;
9  use Data::Dumper;  use Data::Dumper;
10  use Getopt::Std;  use Getopt::Std;
11    use Time::HiRes qw/time/;
12    use File::Pid;
13    use POSIX qw/strftime/;
14    use BackupPC::SearchLib;
15    
16  use constant BPC_FTYPE_DIR => 5;  use constant BPC_FTYPE_DIR => 5;
17    use constant EST_CHUNK => 100000;
18    
19    my $debug = 0;
20  $|=1;  $|=1;
21    
22    my $start_t = time();
23    
24    my $pidfile = new File::Pid;
25    
26    if (my $pid = $pidfile->running ) {
27            die "$0 already running: $pid\n";
28    } elsif ($pidfile->pid ne $$) {
29            $pidfile->remove;
30            $pidfile = new File::Pid;
31    }
32    $pidfile->write;
33    print STDERR "$0 using pid ",$pidfile->pid," file ",$pidfile->file,"\n";
34    
35    my $t_fmt = '%Y-%m-%d %H:%M:%S';
36    
37  my $hosts;  my $hosts;
38  my $bpc = BackupPC::Lib->new || die;  my $bpc = BackupPC::Lib->new || die;
39  my %Conf = $bpc->Conf();  my %Conf = $bpc->Conf();
40  my $TopDir = $bpc->TopDir();  my $TopDir = $bpc->TopDir();
41  my $beenThere = {};  my $beenThere = {};
42    
43  my $dsn = "dbi:SQLite:dbname=$TopDir/$Conf{SearchDB}";  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";
44    my $user = $Conf{SearchUser} || '';
45    
46    my $use_hest = $Conf{HyperEstraierIndex};
47    my ($index_path, $index_node_url) = BackupPC::SearchLib::getHyperEstraier_url($use_hest);
48    
49  my $dbh = DBI->connect($dsn, "", "", { RaiseError => 1, AutoCommit => 0 });  my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });
50    
51  my %opt;  my %opt;
52    
53  if ( !getopts("cdm:", \%opt ) ) {  if ( !getopts("cdm:v:ij", \%opt ) ) {
54          print STDERR <<EOF;          print STDERR <<EOF;
55  usage: $0 [-c|-d] [-m num]  usage: $0 [-c|-d] [-m num] [-v|-v level] [-i]
56    
57  Options:  Options:
58          -c      create database on first use          -c      create database on first use
59          -d      delete database before import          -d      delete database before import
60          -m num  import just num increments for one host          -m num  import just num increments for one host
61            -v num  set verbosity (debug) level (default $debug)
62            -i      update Hyper Estraier full text index
63            -j      update full text, don't check existing files
64    
65    Option -j is variation on -i. It will allow faster initial creation
66    of full-text index from existing database.
67    
68  EOF  EOF
69          exit 1;          exit 1;
70  }  }
71    
72  ###################################create tables############################3  if ($opt{v}) {
73            print "Debug level at $opt{v}\n";
74            $debug = $opt{v};
75    }
76    
77    #---- subs ----
78    
79    sub fmt_time {
80            my $t = shift || return;
81            my $out = "";
82            my ($ss,$mm,$hh) = gmtime($t);
83            $out .= "${hh}h" if ($hh);
84            $out .= sprintf("%02d:%02d", $mm,$ss);
85            return $out;
86    }
87    
88    sub curr_time {
89            return strftime($t_fmt,localtime());
90    }
91    
92    my $hest_db;
93    my $hest_node;
94    
95    sub signal {
96            my($sig) = @_;
97            if ($hest_db) {
98                    print "\nCaught a SIG$sig--syncing database and shutting down\n";
99                    $hest_db->sync();
100                    $hest_db->close();
101            }
102            exit(0);
103    }
104    
105    $SIG{'INT'}  = \&signal;
106    $SIG{'QUIT'} = \&signal;
107    
108    sub hest_update {
109    
110            my ($host_id, $share_id, $num) = @_;
111    
112            my $skip_check = $opt{j} && print STDERR "Skipping check for existing files -- this should be used only with initital import\n";
113    
114            unless ($use_hest) {
115                    print STDERR "HyperEstraier support not enabled in configuration\n";
116                    return;
117            }
118    
119            print curr_time," updating HyperEstraier:";
120    
121            my $t = time();
122    
123            my $offset = 0;
124            my $added = 0;
125    
126            print " opening index $use_hest";
127            if ($index_path) {
128                    $hest_db = HyperEstraier::Database->new();
129                    $hest_db->open($TopDir . $index_path, $HyperEstraier::Database::DBWRITER | $HyperEstraier::Database::DBCREAT);
130                    print " directly";
131            } elsif ($index_node_url) {
132                    $hest_node ||= HyperEstraier::Node->new($index_node_url);
133                    $hest_node->set_auth('admin', 'admin');
134                    print " via node URL";
135            } else {
136                    die "don't know how to use HyperEstraier Index $use_hest";
137            }
138            print " increment is " . EST_CHUNK . " files:";
139    
140            my $results = 0;
141    
142            do {
143    
144                    my $where = '';
145                    my @data;
146                    if (defined($host_id) && defined($share_id) && defined($num)) {
147                            $where = qq{
148                            WHERE
149                                    hosts.id = ? AND
150                                    shares.id = ? AND
151                                    files.backupnum = ?
152                            };
153                            @data = ( $host_id, $share_id, $num );
154                    }
155    
156                    my $limit = sprintf('LIMIT '.EST_CHUNK.' OFFSET %d', $offset);
157    
158                    my $sth = $dbh->prepare(qq{
159                            SELECT
160                                    files.id                        AS fid,
161                                    hosts.name                      AS hname,
162                                    shares.name                     AS sname,
163                                    -- shares.share                 AS sharename,
164                                    files.backupnum                 AS backupnum,
165                                    -- files.name                   AS filename,
166                                    files.path                      AS filepath,
167                                    files.date                      AS date,
168                                    files.type                      AS type,
169                                    files.size                      AS size,
170                                    files.shareid                   AS shareid,
171                                    backups.date                    AS backup_date
172                            FROM files
173                                    INNER JOIN shares       ON files.shareID=shares.ID
174                                    INNER JOIN hosts        ON hosts.ID = shares.hostID
175                                    INNER JOIN backups      ON backups.num = files.backupNum and backups.hostID = hosts.ID AND backups.shareID = shares.ID
176                            $where
177                            $limit
178                    });
179    
180                    $sth->execute(@data);
181                    $results = $sth->rows;
182    
183                    if ($results == 0) {
184                            print " - no new files\n";
185                            last;
186                    }
187    
188                    sub fmt_date {
189                            my $t = shift || return;
190                            my $iso = BackupPC::Lib::timeStamp($t);
191                            $iso =~ s/\s/T/;
192                            return $iso;
193                    }
194    
195                    while (my $row = $sth->fetchrow_hashref()) {
196    
197                            my $fid = $row->{'fid'} || die "no fid?";
198                            my $uri = 'file:///' . $fid;
199    
200                            unless ($skip_check) {
201                                    my $id = ($hest_db || $hest_node)->uri_to_id($uri);
202                                    next unless ($id == -1);
203                            }
204    
205                            # create a document object
206                            my $doc = HyperEstraier::Document->new;
207    
208                            # add attributes to the document object
209                            $doc->add_attr('@uri', $uri);
210    
211                            foreach my $c (@{ $sth->{NAME} }) {
212                                    $doc->add_attr($c, $row->{$c}) if ($row->{$c});
213                            }
214    
215                            #$doc->add_attr('@cdate', fmt_date($row->{'date'}));
216    
217                            # add the body text to the document object
218                            my $path = $row->{'filepath'};
219                            $doc->add_text($path);
220                            $path =~ s/(.)/$1 /g;
221                            $doc->add_hidden_text($path);
222    
223                            print STDERR $doc->dump_draft,"\n" if ($debug > 1);
224    
225                            # register the document object to the database
226                            if ($hest_db) {
227                                    $hest_db->put_doc($doc, $HyperEstraier::Database::PDCLEAN);
228                            } elsif ($hest_node) {
229                                    $hest_node->put_doc($doc);
230                            } else {
231                                    die "not supported";
232                            }
233                            $added++;
234                    }
235    
236                    print " $added";
237                    $hest_db->sync() if ($index_path);
238    
239                    $offset += EST_CHUNK;
240    
241            } while ($results == EST_CHUNK);
242    
243            if ($index_path) {
244                    print ", close";
245                    $hest_db->close();
246            }
247    
248            my $dur = (time() - $t) || 1;
249            printf(" [%.2f/s dur: %s]\n",
250                    ( $added / $dur ),
251                    fmt_time($dur)
252            );
253    }
254    
255    #---- /subs ----
256    
257    
258    ## update index ##
259    if (($opt{i} || $opt{j} || ($index_path && ! -e $TopDir . $index_path)) && !$opt{c}) {
260            # update all
261            print "force update of HyperEstraier index ";
262            print "importing existing data" unless (-e $TopDir . $index_path);
263            print "by -i flag" if ($opt{i});
264            print "by -j flag" if ($opt{j});
265            print "\n";
266            hest_update();
267    }
268    
269    ## create tables ##
270  if ($opt{c}) {  if ($opt{c}) {
271            sub do_index {
272                    my $index = shift || return;
273                    my ($table,$col,$unique) = split(/:/, $index);
274                    $unique ||= '';
275                    $index =~ s/\W+/_/g;
276                    print "$index on $table($col)" . ( $unique ? "u" : "" ) . " ";
277                    $dbh->do(qq{ create $unique index $index on $table($col) });
278            }
279    
280          print "creating tables...\n";          print "creating tables...\n";
281          
282          $dbh->do(qq{          $dbh->do( qq{
283                  create table hosts (                  create table hosts (
284                          ID      INTEGER         PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
285                          name    VARCHAR(30)     NOT NULL,                          name    VARCHAR(30)     NOT NULL,
286                          IP      VARCHAR(15)                          IP      VARCHAR(15)
287                  );                              );            
288          });  
                 
         $dbh->do(qq{  
289                  create table shares (                  create table shares (
290                          ID      INTEGER         PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
291                          hostID  INTEGER         NOT NULL references hosts(id),                          hostID  INTEGER         NOT NULL references hosts(id),
292                          name    VARCHAR(30)     NOT NULL,                          name    VARCHAR(30)     NOT NULL,
293                          share   VARCHAR(200)    NOT NULL,                          share   VARCHAR(200)    NOT NULL
                         localpath VARCHAR(200)        
294                  );                              );            
         });  
           
         $dbh->do(qq{  
                 create table backups (  
                         hostID  INTEGER         NOT NULL references hosts(id),  
                         num     INTEGER         NOT NULL,  
                         date    DATE,  
                         type    CHAR(1),  
                         PRIMARY KEY(hostID, num)  
                 );              
         });  
295    
         $dbh->do(qq{  
296                  create table dvds (                  create table dvds (
297                          ID      INTEGER         PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
298                          num     INTEGER         NOT NULL,                          num     INTEGER         NOT NULL,
299                          name    VARCHAR(255)    NOT NULL,                          name    VARCHAR(255)    NOT NULL,
300                          mjesto  VARCHAR(255)                          mjesto  VARCHAR(255)
301                  );                  );
         });  
302    
303          $dbh->do(qq{                      create table backups (
304                            id      serial,
305                            hostID  INTEGER         NOT NULL references hosts(id),
306                            num     INTEGER         NOT NULL,
307                            date    integer         NOT NULL,
308                            type    CHAR(4)         not null,
309                            shareID integer         not null references shares(id),
310                            size    bigint          not null,
311                            inc_size bigint         not null default -1,
312                            inc_deleted boolean     default false,
313                            parts   integer         not null default 1,
314                            PRIMARY KEY(id)
315                    );            
316    
317                  create table files (                  create table files (
318                          ID      INTEGER         NOT NULL PRIMARY KEY,                            ID              SERIAL,
319                          shareID INTEGER         NOT NULL references shares(id),                          shareID         INTEGER NOT NULL references shares(id),
320                          backupNum  INTEGER      NOT NULL references backups(num),                          backupNum       INTEGER NOT NULL,
321                          name       VARCHAR(255) NOT NULL,                          name            VARCHAR(255) NOT NULL,
322                          path       VARCHAR(255) NOT NULL,                          path            VARCHAR(255) NOT NULL,
323                          fullpath   VARCHAR(255) NOT NULL,                          date            integer NOT NULL,
324                          date       TIMESTAMP    NOT NULL,                          type            INTEGER NOT NULL,
325                          type       INTEGER      NOT NULL,                          size            bigint  NOT NULL,
326                          size       INTEGER      NOT NULL,                          primary key(id)
327                          dvdid      INTEGER      references dvds(id)                      );
328    
329                    create table archive (
330                            id              serial,
331                            dvd_nr          int not null,
332                            total_size      bigint default -1,
333                            note            text,
334                            username        varchar(20) not null,
335                            date            timestamp default now(),
336                            primary key(id)
337                    );      
338    
339                    create table archive_backup (
340                            archive_id      int not null references archive(id) on delete cascade,
341                            backup_id       int not null references backups(id),
342                            primary key(archive_id, backup_id)
343                    );
344    
345                    create table archive_burned (
346                            archive_id      int references archive(id),
347                            date            timestamp default now(),
348                            part            int not null default 1,
349                            copy            int not null default 1,
350                            iso_size bigint default -1
351                    );
352    
353                    create table backup_parts (
354                            id serial,
355                            backup_id int references backups(id),
356                            part_nr int not null check (part_nr > 0),
357                            tar_size bigint not null check (tar_size > 0),
358                            size bigint not null check (size > 0),
359                            md5 text not null,
360                            items int not null check (items > 0),
361                            date timestamp default now(),
362                            primary key(id)
363                  );                  );
364          });          });
365    
366          print "creating indexes...\n";          print "creating indexes: ";
367    
368          foreach my $index (qw(          foreach my $index (qw(
369                  hosts_name                  hosts:name
370                  backups_hostID                  backups:hostID
371                  backups_num                  backups:num
372                  shares_hostID                  backups:shareID
373                  shares_name                  shares:hostID
374                  files_shareID                  shares:name
375                  files_path                  files:shareID
376                  files_name                  files:path
377                  files_date                  files:name
378                  files_size                  files:date
379                    files:size
380                    archive:dvd_nr
381                    archive_burned:archive_id
382                    backup_parts:backup_id,part_nr
383          )) {          )) {
384                  my ($table,$col) = split(/_/, $index);                  do_index($index);
385                  $dbh->do(qq{ create index $index on $table($col) });          }
386    
387            print " creating sequence: ";
388            foreach my $seq (qw/dvd_nr/) {
389                    print "$seq ";
390                    $dbh->do( qq{ CREATE SEQUENCE $seq } );
391          }          }
392    
393    
394            print "...\n";
395    
396            $dbh->commit;
397    
398  }  }
399    
400    ## delete data before inseting ##
401  if ($opt{d}) {  if ($opt{d}) {
402          print "deleting ";          print "deleting ";
403          foreach my $table (qw(hosts shares files dvds backups)) {          foreach my $table (qw(files dvds backups shares hosts)) {
404                  print "$table ";                  print "$table ";
405                  $dbh->do(qq{ DELETE FROM $table });                  $dbh->do(qq{ DELETE FROM $table });
406          }          }
407          print " done...\n";          print " done...\n";
408    
409            $dbh->commit;
410  }  }
411    
412  #################################INSERT VALUES#############################  ## insert new values ##
413    
414  # get hosts  # get hosts
415  $hosts = $bpc->HostInfoRead();  $hosts = $bpc->HostInfoRead();
# Line 139  $sth->{hosts_by_name} = $dbh->prepare(qq Line 426  $sth->{hosts_by_name} = $dbh->prepare(qq
426  SELECT ID FROM hosts WHERE name=?  SELECT ID FROM hosts WHERE name=?
427  });  });
428    
429  $sth->{backups_broj} = $dbh->prepare(qq{  $sth->{backups_count} = $dbh->prepare(qq{
430  SELECT COUNT(*)  SELECT COUNT(*)
431  FROM backups  FROM backups
432  WHERE hostID=? AND num=?  WHERE hostID=? AND num=? AND shareid=?
433  });  });
434    
435  $sth->{insert_backups} = $dbh->prepare(qq{  $sth->{insert_backups} = $dbh->prepare(qq{
436  INSERT INTO backups (hostID, num, date, type)  INSERT INTO backups (hostID, num, date, type, shareid, size)
437  VALUES (?,?,?,?)  VALUES (?,?,?,?,?,?)
438  });  });
439    
440  $sth->{insert_files} = $dbh->prepare(qq{  $sth->{insert_files} = $dbh->prepare(qq{
441  INSERT INTO files  INSERT INTO files
442          (shareID, backupNum, name, path, fullpath, date, type, size)          (shareID, backupNum, name, path, date, type, size)
443          VALUES (?,?,?,?,?,?,?,?)          VALUES (?,?,?,?,?,?,?)
444  });  });
445    
446  foreach my $host_key (keys %{$hosts}) {  foreach my $host_key (keys %{$hosts}) {
# Line 168  foreach my $host_key (keys %{$hosts}) { Line 455  foreach my $host_key (keys %{$hosts}) {
455                          $hosts->{$host_key}->{'ip'}                          $hosts->{$host_key}->{'ip'}
456                  );                  );
457    
458                  $hostID = $dbh->func('last_insert_rowid');                  $hostID = $dbh->last_insert_id(undef,undef,'hosts',undef);
459          }          }
460    
461          print("host ".$hosts->{$host_key}->{'host'}.": ");          print "host ".$hosts->{$host_key}->{'host'}.": ";
462    
463          # get backups for a host          # get backups for a host
464          my @backups = $bpc->BackupInfoRead($hostname);          my @backups = $bpc->BackupInfoRead($hostname);
465          print scalar @backups, " increments\n";          my $incs = scalar @backups;
466            print  "$incs increments\n";
467    
468          my $inc_nr = 0;          my $inc_nr = 0;
469            $beenThere = {};
470    
471          foreach my $backup (@backups) {          foreach my $backup (@backups) {
472    
473                  $inc_nr++;                  $inc_nr++;
474                  last if ($opt{m} && $inc_nr > $opt{m});                  last if ($opt{m} && $inc_nr > $opt{m});
475    
476                  my $backupNum = $backup->{'num'};                  my $backupNum = $backup->{'num'};
477                  my @backupShares = ();                  my @backupShares = ();
478    
479                  print $hosts->{$host_key}->{'host'},"\t#$backupNum\n";                  printf("%-10s %2d/%-2d #%-2d %s %5s/%5s files (date: %s dur: %s)\n",
480                            $hosts->{$host_key}->{'host'},
481                  $sth->{backups_broj}->execute($hostID, $backupNum);                          $inc_nr, $incs, $backupNum,
482                  my ($broj) = $sth->{backups_broj}->fetchrow_array();                          $backup->{type} || '?',
483                  next if ($broj > 0);                          $backup->{nFilesNew} || '?', $backup->{nFiles} || '?',
484                            strftime($t_fmt,localtime($backup->{startTime})),
485                  $sth->{insert_backups}->execute(                          fmt_time($backup->{endTime} - $backup->{startTime})
                         $hostID,  
                         $backupNum,  
                         $backup->{'endTime'},  
                         $backup->{'type'}  
486                  );                  );
                 $dbh->commit();  
487    
488                  my $files = BackupPC::View->new($bpc, $hostname, \@backups);                  my $files = BackupPC::View->new($bpc, $hostname, \@backups, 1);
489                  foreach my $share ($files->shareList($backupNum)) {                  foreach my $share ($files->shareList($backupNum)) {
490    
491                          print "\t$share";                          my $t = time();
492    
493                          $shareID = getShareID($share, $hostID, $hostname);                          $shareID = getShareID($share, $hostID, $hostname);
494                                    
495                          my ($f, $nf, $d, $nd) = recurseDir($bpc, $hostname, \@backups, $backupNum, $share, "", $shareID);                          $sth->{backups_count}->execute($hostID, $backupNum, $shareID);
496                          print " $nf/$f files $nd/$d dirs\n";                          my ($count) = $sth->{backups_count}->fetchrow_array();
497                            # skip if allready in database!
498                            next if ($count > 0);
499    
500                            # dump some log
501                            print curr_time," ", $share;
502    
503                            my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);
504    
505                            $sth->{insert_backups}->execute(
506                                    $hostID,
507                                    $backupNum,
508                                    $backup->{'endTime'},
509                                    substr($backup->{'type'},0,4),
510                                    $shareID,
511                                    $size,
512                            );
513    
514                            print " commit";
515                          $dbh->commit();                          $dbh->commit();
516    
517                            my $dur = (time() - $t) || 1;
518                            printf(" %d/%d files %d/%d dirs %0.2f MB [%.2f/s dur: %s]\n",
519                                    $nf, $f, $nd, $d,
520                                    ($size / 1024 / 1024),
521                                    ( ($f+$d) / $dur ),
522                                    fmt_time($dur)
523                            );
524    
525                            hest_update($hostID, $shareID, $backupNum) if ($nf + $nd > 0);
526                  }                  }
527    
528          }          }
529  }  }
530  undef $sth;  undef $sth;
531  $dbh->commit();  $dbh->commit();
532  $dbh->disconnect();  $dbh->disconnect();
533    
534    print "total duration: ",fmt_time(time() - $start_t),"\n";
535    
536    $pidfile->remove;
537    
538  sub getShareID() {  sub getShareID() {
539    
540          my ($share, $hostID, $hostname) = @_;          my ($share, $hostID, $hostname) = @_;
# Line 232  sub getShareID() { Line 551  sub getShareID() {
551    
552          $sth->{insert_share} ||= $dbh->prepare(qq{          $sth->{insert_share} ||= $dbh->prepare(qq{
553                  INSERT INTO shares                  INSERT INTO shares
554                          (hostID,name,share,localpath)                          (hostID,name,share)
555                  VALUES (?,?,?,?)                  VALUES (?,?,?)
556          });          });
557    
558          $sth->{insert_share}->execute($hostID,$share, $hostname . $share,undef);          my $drop_down = $hostname . '/' . $share;
559          return $dbh->func('last_insert_rowid');                  $drop_down =~ s#//+#/#g;
560    
561            $sth->{insert_share}->execute($hostID,$share, $drop_down);
562            return $dbh->last_insert_id(undef,undef,'shares',undef);
563  }  }
564    
565  sub found_in_db {  sub found_in_db {
566    
567          my ($shareID,undef,$name,$path,undef,$date,undef,$size) = @_;          my @data = @_;
568            shift @data;
569    
570            my ($key, $shareID,undef,$name,$path,$date,undef,$size) = @_;
571    
572            return $beenThere->{$key} if (defined($beenThere->{$key}));
573    
574          $sth->{file_in_db} ||= $dbh->prepare(qq{          $sth->{file_in_db} ||= $dbh->prepare(qq{
575                  SELECT count(*) FROM files                  SELECT 1 FROM files
576                  WHERE shareID = ? and                  WHERE shareID = ? and
577                          path = ? and                          path = ? and
                         name = ? and  
578                          date = ? and                          date = ? and
579                          size = ?                          size = ?
580                    LIMIT 1
581          });          });
582    
583          my @param = ($shareID,$path,$name,$date,$size);          my @param = ($shareID,$path,$date,$size);
584          $sth->{file_in_db}->execute(@param);          $sth->{file_in_db}->execute(@param);
585          my ($rows) = $sth->{file_in_db}->fetchrow_array();          my $rows = $sth->{file_in_db}->rows;
586  #       print STDERR ( $rows ? '+' : '-' ), join(" ",@param), "\n";          print STDERR "## found_in_db($shareID,$path,$date,$size) ",( $rows ? '+' : '-' ), join(" ",@param), "\n" if ($debug >= 3);
587    
588            $beenThere->{$key}++;
589    
590            $sth->{'insert_files'}->execute(@data) unless ($rows);
591          return $rows;          return $rows;
592  }  }
593    
# Line 266  sub found_in_db { Line 597  sub found_in_db {
597  ####################################################  ####################################################
598  sub recurseDir($$$$$$$$) {  sub recurseDir($$$$$$$$) {
599    
600          my ($bpc, $hostname, $backups, $backupNum, $share, $dir, $shareID) = @_;          my ($bpc, $hostname, $files, $backupNum, $share, $dir, $shareID) = @_;
601    
602          my ($nr_files, $new_files, $nr_dirs, $new_dirs) = (0,0,0,0);          print STDERR "\nrecurse($hostname,$backupNum,$share,$dir,$shareID)\n" if ($debug >= 1);
603    
604          my $files = BackupPC::View->new($bpc, $hostname, $backups);                      my ($nr_files, $new_files, $nr_dirs, $new_dirs, $size) = (0,0,0,0,0);
         my $filesInBackup = $files->dirAttrib($backupNum, $share, $dir);  
605    
606          # first, add all the entries in current directory          { # scope
607          foreach my $path_key (keys %{$filesInBackup}) {                  my @stack;
                 my @data = (  
                         $shareID,  
                         $backupNum,  
                         $path_key,  
                         $filesInBackup->{$path_key}->{'relPath'},  
                         $filesInBackup->{$path_key}->{'fullPath'},  
 #                       $filesInBackup->{$path_key}->{'sharePathM'},  
                         $filesInBackup->{$path_key}->{'mtime'},  
                         $filesInBackup->{$path_key}->{'type'},  
                         $filesInBackup->{$path_key}->{'size'}  
                 );  
   
                 my $key = join(" ", (  
                         $shareID,  
                         $dir,  
                         $path_key,  
                         $filesInBackup->{$path_key}->{'mtime'},  
                         $filesInBackup->{$path_key}->{'size'}  
                 ));  
608    
609                    print STDERR "# dirAttrib($backupNum, $share, $dir)\n" if ($debug >= 2);
610                    my $filesInBackup = $files->dirAttrib($backupNum, $share, $dir);
611    
612                    # first, add all the entries in current directory
613                    foreach my $path_key (keys %{$filesInBackup}) {
614                            print STDERR "# file ",Dumper($filesInBackup->{$path_key}),"\n" if ($debug >= 3);
615                            my @data = (
616                                    $shareID,
617                                    $backupNum,
618                                    $path_key,
619                                    $filesInBackup->{$path_key}->{'relPath'},
620                                    $filesInBackup->{$path_key}->{'mtime'},
621                                    $filesInBackup->{$path_key}->{'type'},
622                                    $filesInBackup->{$path_key}->{'size'}
623                            );
624    
625                            my $key = join(" ", (
626                                    $shareID,
627                                    $dir,
628                                    $path_key,
629                                    $filesInBackup->{$path_key}->{'mtime'},
630                                    $filesInBackup->{$path_key}->{'size'}
631                            ));
632    
633                            # daylight saving time change offset for 1h
634                            my $dst_offset = 60 * 60;
635    
636                            my $key_dst1 = join(" ", (
637                                    $shareID,
638                                    $dir,
639                                    $path_key,
640                                    $filesInBackup->{$path_key}->{'mtime'} - $dst_offset,
641                                    $filesInBackup->{$path_key}->{'size'}
642                            ));
643    
644                            my $key_dst2 = join(" ", (
645                                    $shareID,
646                                    $dir,
647                                    $path_key,
648                                    $filesInBackup->{$path_key}->{'mtime'} + $dst_offset,
649                                    $filesInBackup->{$path_key}->{'size'}
650                            ));
651    
652                            my $found;
653                            if (
654                                    ! defined($beenThere->{$key}) &&
655                                    ! defined($beenThere->{$key_dst1}) &&
656                                    ! defined($beenThere->{$key_dst2}) &&
657                                    ! ($found = found_in_db($key, @data))
658                            ) {
659                                    print STDERR "# key: $key [", $beenThere->{$key},"]" if ($debug >= 2);
660    
661                                    if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {
662                                            $new_dirs++ unless ($found);
663                                            print STDERR " dir\n" if ($debug >= 2);
664                                    } else {
665                                            $new_files++ unless ($found);
666                                            print STDERR " file\n" if ($debug >= 2);
667                                    }
668                                    $size += $filesInBackup->{$path_key}->{'size'} || 0;
669                            }
670    
                 if (! $beenThere->{$key} && ! found_in_db(@data)) {  
                         $sth->{'insert_files'}->execute(@data);  
 #                       print STDERR "$key\n";  
671                          if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {                          if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {
672                                  $new_dirs++;                                  $nr_dirs++;
673    
674                                    my $full_path = $dir . '/' . $path_key;
675                                    push @stack, $full_path;
676                                    print STDERR "### store to stack: $full_path\n" if ($debug >= 3);
677    
678    #                               my ($f,$nf,$d,$nd) = recurseDir($bpc, $hostname, $backups, $backupNum, $share, $path_key, $shareID) unless ($beenThere->{$key});
679    #
680    #                               $nr_files += $f;
681    #                               $new_files += $nf;
682    #                               $nr_dirs += $d;
683    #                               $new_dirs += $nd;
684    
685                          } else {                          } else {
686                                  $new_files++;                                  $nr_files++;
687                          }                          }
688                  }                  }
                 $beenThere->{$key}++;  
   
                 if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {  
                         $nr_dirs++;  
689    
690                          my ($f,$nf,$d,$nd) = recurseDir($bpc, $hostname, $backups, $backupNum, $share, $path_key, $shareID);                  print STDERR "## STACK ",join(", ", @stack),"\n" if ($debug >= 2);
691    
692                    while ( my $dir = shift @stack ) {
693                            my ($f,$nf,$d,$nd, $s) = recurseDir($bpc, $hostname, $files, $backupNum, $share, $dir, $shareID);
694                            print STDERR "# $dir f: $f nf: $nf d: $d nd: $nd\n" if ($debug >= 1);
695                          $nr_files += $f;                          $nr_files += $f;
696                          $new_files += $nf;                          $new_files += $nf;
697                          $nr_dirs += $d;                          $nr_dirs += $d;
698                          $new_dirs += $nd;                          $new_dirs += $nd;
699                            $size += $s;
                 } else {  
                         $nr_files++;  
700                  }                  }
701          }          }
702    
703          return ($nr_files, $new_files, $nr_dirs, $new_dirs);          return ($nr_files, $new_files, $nr_dirs, $new_dirs, $size);
704  }  }
705    

Legend:
Removed from v.18  
changed lines
  Added in v.240

  ViewVC Help
Powered by ViewVC 1.1.26