/[BackupPC]/trunk/bin/BackupPC_updatedb
This is repository of my old source code which isn't updated any more. Go to git.rot13.org for current projects!
ViewVC logotype

Diff of /trunk/bin/BackupPC_updatedb

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

revision 57 by dpavlin, Sun Aug 21 14:25:46 2005 UTC revision 241 by dpavlin, Thu Nov 17 17:56:25 2005 UTC
# Line 11  use Getopt::Std; Line 11  use Getopt::Std;
11  use Time::HiRes qw/time/;  use Time::HiRes qw/time/;
12  use File::Pid;  use File::Pid;
13  use POSIX qw/strftime/;  use POSIX qw/strftime/;
14    use BackupPC::SearchLib;
15    
16  use constant BPC_FTYPE_DIR => 5;  use constant BPC_FTYPE_DIR => 5;
17    use constant EST_CHUNK => 100000;
18    
19  my $debug = 0;  my $debug = 0;
20  $|=1;  $|=1;
# Line 41  my $beenThere = {}; Line 43  my $beenThere = {};
43  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";
44  my $user = $Conf{SearchUser} || '';  my $user = $Conf{SearchUser} || '';
45    
46    my $use_hest = $Conf{HyperEstraierIndex};
47    my ($index_path, $index_node_url) = BackupPC::SearchLib::getHyperEstraier_url($use_hest);
48    
49  my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });  my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });
50    
51  my %opt;  my %opt;
52    
53  if ( !getopts("cdm:v:", \%opt ) ) {  if ( !getopts("cdm:v:ij", \%opt ) ) {
54          print STDERR <<EOF;          print STDERR <<EOF;
55  usage: $0 [-c|-d] [-m num] [-v|-v level]  usage: $0 [-c|-d] [-m num] [-v|-v level] [-i]
56    
57  Options:  Options:
58          -c      create database on first use          -c      create database on first use
59          -d      delete database before import          -d      delete database before import
60          -m num  import just num increments for one host          -m num  import just num increments for one host
61          -v num  set verbosity (debug) level (default $debug)          -v num  set verbosity (debug) level (default $debug)
62            -i      update Hyper Estraier full text index
63            -j      update full text, don't check existing files
64    
65    Option -j is variation on -i. It will allow faster initial creation
66    of full-text index from existing database.
67    
68  EOF  EOF
69          exit 1;          exit 1;
70  }  }
71    
72  ###################################create tables############################3  if ($opt{v}) {
73            print "Debug level at $opt{v}\n";
74            $debug = $opt{v};
75    }
76    
77    #---- subs ----
78    
79    sub fmt_time {
80            my $t = shift || return;
81            my $out = "";
82            my ($ss,$mm,$hh) = gmtime($t);
83            $out .= "${hh}h" if ($hh);
84            $out .= sprintf("%02d:%02d", $mm,$ss);
85            return $out;
86    }
87    
88    sub curr_time {
89            return strftime($t_fmt,localtime());
90    }
91    
92    my $hest_db;
93    my $hest_node;
94    
95    sub signal {
96            my($sig) = @_;
97            if ($hest_db) {
98                    print "\nCaught a SIG$sig--syncing database and shutting down\n";
99                    $hest_db->sync();
100                    $hest_db->close();
101            }
102            exit(0);
103    }
104    
105    $SIG{'INT'}  = \&signal;
106    $SIG{'QUIT'} = \&signal;
107    
108    sub hest_update {
109    
110            my ($host_id, $share_id, $num) = @_;
111    
112            my $skip_check = $opt{j} && print STDERR "Skipping check for existing files -- this should be used only with initital import\n";
113    
114            unless ($use_hest) {
115                    print STDERR "HyperEstraier support not enabled in configuration\n";
116                    return;
117            }
118    
119            print curr_time," updating HyperEstraier:";
120    
121            my $t = time();
122    
123            my $offset = 0;
124            my $added = 0;
125    
126            print " opening index $use_hest";
127            if ($index_path) {
128                    $hest_db = HyperEstraier::Database->new();
129                    $hest_db->open($TopDir . $index_path, $HyperEstraier::Database::DBWRITER | $HyperEstraier::Database::DBCREAT);
130                    print " directly";
131            } elsif ($index_node_url) {
132                    $hest_node ||= HyperEstraier::Node->new($index_node_url);
133                    $hest_node->set_auth('admin', 'admin');
134                    print " via node URL";
135            } else {
136                    die "don't know how to use HyperEstraier Index $use_hest";
137            }
138            print " increment is " . EST_CHUNK . " files:";
139    
140            my $results = 0;
141    
142            do {
143    
144                    my $where = '';
145                    my @data;
146                    if (defined($host_id) && defined($share_id) && defined($num)) {
147                            $where = qq{
148                            WHERE
149                                    hosts.id = ? AND
150                                    shares.id = ? AND
151                                    files.backupnum = ?
152                            };
153                            @data = ( $host_id, $share_id, $num );
154                    }
155    
156                    my $limit = sprintf('LIMIT '.EST_CHUNK.' OFFSET %d', $offset);
157    
158                    my $sth = $dbh->prepare(qq{
159                            SELECT
160                                    files.id                        AS fid,
161                                    hosts.name                      AS hname,
162                                    shares.name                     AS sname,
163                                    -- shares.share                 AS sharename,
164                                    files.backupnum                 AS backupnum,
165                                    -- files.name                   AS filename,
166                                    files.path                      AS filepath,
167                                    files.date                      AS date,
168                                    files.type                      AS type,
169                                    files.size                      AS size,
170                                    files.shareid                   AS shareid,
171                                    backups.date                    AS backup_date
172                            FROM files
173                                    INNER JOIN shares       ON files.shareID=shares.ID
174                                    INNER JOIN hosts        ON hosts.ID = shares.hostID
175                                    INNER JOIN backups      ON backups.num = files.backupNum and backups.hostID = hosts.ID AND backups.shareID = shares.ID
176                            $where
177                            $limit
178                    });
179    
180                    $sth->execute(@data);
181                    $results = $sth->rows;
182    
183                    if ($results == 0) {
184                            print " - no new files\n";
185                            last;
186                    }
187    
188                    sub fmt_date {
189                            my $t = shift || return;
190                            my $iso = BackupPC::Lib::timeStamp($t);
191                            $iso =~ s/\s/T/;
192                            return $iso;
193                    }
194    
195                    while (my $row = $sth->fetchrow_hashref()) {
196    
197                            my $fid = $row->{'fid'} || die "no fid?";
198                            my $uri = 'file:///' . $fid;
199    
200                            unless ($skip_check) {
201                                    my $id = ($hest_db || $hest_node)->uri_to_id($uri);
202                                    next unless ($id == -1);
203                            }
204    
205                            # create a document object
206                            my $doc = HyperEstraier::Document->new;
207    
208                            # add attributes to the document object
209                            $doc->add_attr('@uri', $uri);
210    
211                            foreach my $c (@{ $sth->{NAME} }) {
212                                    $doc->add_attr($c, $row->{$c}) if (defined($row->{$c}));
213                            }
214    
215                            #$doc->add_attr('@cdate', fmt_date($row->{'date'}));
216    
217                            # add the body text to the document object
218                            my $path = $row->{'filepath'};
219                            $doc->add_text($path);
220                            $path =~ s/(.)/$1 /g;
221                            $doc->add_hidden_text($path);
222    
223                            print STDERR $doc->dump_draft,"\n" if ($debug > 1);
224    
225                            # register the document object to the database
226                            if ($hest_db) {
227                                    $hest_db->put_doc($doc, $HyperEstraier::Database::PDCLEAN);
228                            } elsif ($hest_node) {
229                                    $hest_node->put_doc($doc);
230                            } else {
231                                    die "not supported";
232                            }
233                            $added++;
234                    }
235    
236                    print " $added";
237                    $hest_db->sync() if ($index_path);
238    
239                    $offset += EST_CHUNK;
240    
241            } while ($results == EST_CHUNK);
242    
243            if ($index_path) {
244                    print ", close";
245                    $hest_db->close();
246            }
247    
248            my $dur = (time() - $t) || 1;
249            printf(" [%.2f/s dur: %s]\n",
250                    ( $added / $dur ),
251                    fmt_time($dur)
252            );
253    }
254    
255    #---- /subs ----
256    
257    
258    ## update index ##
259    if (($opt{i} || $opt{j} || ($index_path && ! -e $TopDir . $index_path)) && !$opt{c}) {
260            # update all
261            print "force update of HyperEstraier index ";
262            print "importing existing data" unless (-e $TopDir . $index_path);
263            print "by -i flag" if ($opt{i});
264            print "by -j flag" if ($opt{j});
265            print "\n";
266            hest_update();
267    }
268    
269    ## create tables ##
270  if ($opt{c}) {  if ($opt{c}) {
271          sub do_index {          sub do_index {
272                  my $index = shift || return;                  my $index = shift || return;
273                  my ($table,$col,$unique) = split(/_/, $index);                  my ($table,$col,$unique) = split(/:/, $index);
274                  $unique ||= '';                  $unique ||= '';
275                  $index =~ s/,/_/g;                  $index =~ s/\W+/_/g;
276                    print "$index on $table($col)" . ( $unique ? "u" : "" ) . " ";
277                  $dbh->do(qq{ create $unique index $index on $table($col) });                  $dbh->do(qq{ create $unique index $index on $table($col) });
278          }          }
279    
280          print "creating tables...\n";          print "creating tables...\n";
281          
282          $dbh->do(qq{          $dbh->do( qq{
283                  create table hosts (                  create table hosts (
284                          ID      SERIAL          PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
285                          name    VARCHAR(30)     NOT NULL,                          name    VARCHAR(30)     NOT NULL,
286                          IP      VARCHAR(15)                          IP      VARCHAR(15)
287                  );                              );            
288          });  
                 
         $dbh->do(qq{  
289                  create table shares (                  create table shares (
290                          ID      SERIAL          PRIMARY KEY,                          ID      SERIAL          PRIMARY KEY,
291                          hostID  INTEGER         NOT NULL references hosts(id),                          hostID  INTEGER         NOT NULL references hosts(id),
292                          name    VARCHAR(30)     NOT NULL,                          name    VARCHAR(30)     NOT NULL,
293                          share   VARCHAR(200)    NOT NULL,                          share   VARCHAR(200)    NOT NULL
                         localpath VARCHAR(200)        
294                  );                              );            
295          });  
296                            create table dvds (
297          $dbh->do(qq{                          ID      SERIAL          PRIMARY KEY,
298                            num     INTEGER         NOT NULL,
299                            name    VARCHAR(255)    NOT NULL,
300                            mjesto  VARCHAR(255)
301                    );
302    
303                  create table backups (                  create table backups (
304                            id      serial,
305                          hostID  INTEGER         NOT NULL references hosts(id),                          hostID  INTEGER         NOT NULL references hosts(id),
306                          num     INTEGER         NOT NULL,                          num     INTEGER         NOT NULL,
307                          date    integer         NOT NULL,                          date    integer         NOT NULL,
308                          type    CHAR(4)         not null,                          type    CHAR(4)         not null,
309                          PRIMARY KEY(hostID, num)                          shareID integer         not null references shares(id),
310                            size    bigint          not null,
311                            inc_size bigint         not null default -1,
312                            inc_deleted boolean     default false,
313                            parts   integer         not null default 1,
314                            PRIMARY KEY(id)
315                  );                              );            
         });  
316    
317          do_index('backups_hostid,num_unique');                  create table files (
318                            ID              SERIAL,
319                            shareID         INTEGER NOT NULL references shares(id),
320                            backupNum       INTEGER NOT NULL,
321                            name            VARCHAR(255) NOT NULL,
322                            path            VARCHAR(255) NOT NULL,
323                            date            integer NOT NULL,
324                            type            INTEGER NOT NULL,
325                            size            bigint  NOT NULL,
326                            primary key(id)
327                    );
328    
329          $dbh->do(qq{                  create table archive (
330                  create table dvds (                          id              serial,
331                          ID      SERIAL          PRIMARY KEY,                          dvd_nr          int not null,
332                          num     INTEGER         NOT NULL,                          total_size      bigint default -1,
333                          name    VARCHAR(255)    NOT NULL,                          note            text,
334                          mjesto  VARCHAR(255)                          username        varchar(20) not null,
335                            date            timestamp default now(),
336                            primary key(id)
337                    );      
338    
339                    create table archive_backup (
340                            archive_id      int not null references archive(id) on delete cascade,
341                            backup_id       int not null references backups(id),
342                            primary key(archive_id, backup_id)
343                  );                  );
         });  
344    
345          $dbh->do(qq{                      create table archive_burned (
346                  create table files (                          archive_id      int references archive(id),
347                          ID      SERIAL          PRIMARY KEY,                            date            timestamp default now(),
348                          shareID INTEGER         NOT NULL references shares(id),                          part            int not null default 1,
349                          backupNum  INTEGER      NOT NULL,                          copy            int not null default 1,
350                          name       VARCHAR(255) NOT NULL,                          iso_size bigint default -1
351                          path       VARCHAR(255) NOT NULL,                  );
352                          fullpath   VARCHAR(255) NOT NULL,  
353                          date       integer      NOT NULL,                  create table backup_parts (
354                          type       INTEGER      NOT NULL,                          id serial,
355                          size       INTEGER      NOT NULL,                          backup_id int references backups(id),
356                          dvdid      INTEGER      references dvds(id)                              part_nr int not null check (part_nr > 0),
357                            tar_size bigint not null check (tar_size > 0),
358                            size bigint not null check (size > 0),
359                            md5 text not null,
360                            items int not null check (items > 0),
361                            date timestamp default now(),
362                            primary key(id)
363                  );                  );
364          });          });
365    
366          print "creating indexes:";          print "creating indexes: ";
367    
368          foreach my $index (qw(          foreach my $index (qw(
369                  hosts_name                  hosts:name
370                  backups_hostID                  backups:hostID
371                  backups_num                  backups:num
372                  shares_hostID                  backups:shareID
373                  shares_name                  shares:hostID
374                  files_shareID                  shares:name
375                  files_path                  files:shareID
376                  files_name                  files:path
377                  files_date                  files:name
378                  files_size                  files:date
379                    files:size
380                    archive:dvd_nr
381                    archive_burned:archive_id
382                    backup_parts:backup_id,part_nr
383          )) {          )) {
                 print " $index";  
384                  do_index($index);                  do_index($index);
385          }          }
386    
387            print " creating sequence: ";
388            foreach my $seq (qw/dvd_nr/) {
389                    print "$seq ";
390                    $dbh->do( qq{ CREATE SEQUENCE $seq } );
391            }
392    
393    
394          print "...\n";          print "...\n";
395    
396          $dbh->commit;          $dbh->commit;
397    
398  }  }
399    
400    ## delete data before inseting ##
401  if ($opt{d}) {  if ($opt{d}) {
402          print "deleting ";          print "deleting ";
403          foreach my $table (qw(files dvds backups shares hosts)) {          foreach my $table (qw(files dvds backups shares hosts)) {
# Line 159  if ($opt{d}) { Line 409  if ($opt{d}) {
409          $dbh->commit;          $dbh->commit;
410  }  }
411    
412  if ($opt{v}) {  ## insert new values ##
         print "Debug level at $opt{v}\n";  
         $debug = $opt{v};  
 }  
   
 #################################INSERT VALUES#############################  
413    
414  # get hosts  # get hosts
415  $hosts = $bpc->HostInfoRead();  $hosts = $bpc->HostInfoRead();
# Line 181  $sth->{hosts_by_name} = $dbh->prepare(qq Line 426  $sth->{hosts_by_name} = $dbh->prepare(qq
426  SELECT ID FROM hosts WHERE name=?  SELECT ID FROM hosts WHERE name=?
427  });  });
428    
429  $sth->{backups_broj} = $dbh->prepare(qq{  $sth->{backups_count} = $dbh->prepare(qq{
430  SELECT COUNT(*)  SELECT COUNT(*)
431  FROM backups  FROM backups
432  WHERE hostID=? AND num=?  WHERE hostID=? AND num=? AND shareid=?
433  });  });
434    
435  $sth->{insert_backups} = $dbh->prepare(qq{  $sth->{insert_backups} = $dbh->prepare(qq{
436  INSERT INTO backups (hostID, num, date, type)  INSERT INTO backups (hostID, num, date, type, shareid, size)
437  VALUES (?,?,?,?)  VALUES (?,?,?,?,?,?)
438  });  });
439    
440  $sth->{insert_files} = $dbh->prepare(qq{  $sth->{insert_files} = $dbh->prepare(qq{
441  INSERT INTO files  INSERT INTO files
442          (shareID, backupNum, name, path, fullpath, date, type, size)          (shareID, backupNum, name, path, date, type, size)
443          VALUES (?,?,?,?,?,?,?,?)          VALUES (?,?,?,?,?,?,?)
444  });  });
445    
 sub fmt_time {  
         my $t = shift || return;  
         my $out = "";  
         my ($ss,$mm,$hh) = gmtime($t);  
         $out .= "${hh}h" if ($hh);  
         $out .= sprintf("%02d:%02d", $mm,$ss);  
         return $out;  
 }  
   
446  foreach my $host_key (keys %{$hosts}) {  foreach my $host_key (keys %{$hosts}) {
447    
448          my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";          my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";
# Line 222  foreach my $host_key (keys %{$hosts}) { Line 458  foreach my $host_key (keys %{$hosts}) {
458                  $hostID = $dbh->last_insert_id(undef,undef,'hosts',undef);                  $hostID = $dbh->last_insert_id(undef,undef,'hosts',undef);
459          }          }
460    
461          print("host ".$hosts->{$host_key}->{'host'}.": ");          print "host ".$hosts->{$host_key}->{'host'}.": ";
462    
463          # get backups for a host          # get backups for a host
464          my @backups = $bpc->BackupInfoRead($hostname);          my @backups = $bpc->BackupInfoRead($hostname);
465          print scalar @backups, " increments\n";          my $incs = scalar @backups;
466            print  "$incs increments\n";
467    
468          my $inc_nr = 0;          my $inc_nr = 0;
469            $beenThere = {};
470    
471          foreach my $backup (@backups) {          foreach my $backup (@backups) {
472    
# Line 238  foreach my $host_key (keys %{$hosts}) { Line 476  foreach my $host_key (keys %{$hosts}) {
476                  my $backupNum = $backup->{'num'};                  my $backupNum = $backup->{'num'};
477                  my @backupShares = ();                  my @backupShares = ();
478    
479                  print $hosts->{$host_key}->{'host'},                  printf("%-10s %2d/%-2d #%-2d %s %5s/%5s files (date: %s dur: %s)\n",
480                          "\t#$backupNum\t", $backup->{type} || '?', " ",                          $hosts->{$host_key}->{'host'},
481                          $backup->{nFilesNew} || '?', "/", $backup->{nFiles} || '?',                          $inc_nr, $incs, $backupNum,
482                          " files (date: ",                          $backup->{type} || '?',
483                            $backup->{nFilesNew} || '?', $backup->{nFiles} || '?',
484                          strftime($t_fmt,localtime($backup->{startTime})),                          strftime($t_fmt,localtime($backup->{startTime})),
485                          " dur: ",                          fmt_time($backup->{endTime} - $backup->{startTime})
                         fmt_time($backup->{endTime} - $backup->{startTime}),  
                         ")\n";  
   
                 $sth->{backups_broj}->execute($hostID, $backupNum);  
                 my ($broj) = $sth->{backups_broj}->fetchrow_array();  
                 next if ($broj > 0);  
   
                 $sth->{insert_backups}->execute(  
                         $hostID,  
                         $backupNum,  
                         $backup->{'endTime'},  
                         $backup->{'type'}  
486                  );                  );
                 $dbh->commit();  
487    
488                  my $files = BackupPC::View->new($bpc, $hostname, \@backups, 1);                  my $files = BackupPC::View->new($bpc, $hostname, \@backups, 1);
489                  foreach my $share ($files->shareList($backupNum)) {                  foreach my $share ($files->shareList($backupNum)) {
490    
491                          my $t = time();                          my $t = time();
492    
                         print strftime($t_fmt,localtime())," ", $share;  
493                          $shareID = getShareID($share, $hostID, $hostname);                          $shareID = getShareID($share, $hostID, $hostname);
494                                    
495                          my ($f, $nf, $d, $nd) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);                          $sth->{backups_count}->execute($hostID, $backupNum, $shareID);
496                            my ($count) = $sth->{backups_count}->fetchrow_array();
497                            # skip if allready in database!
498                            next if ($count > 0);
499    
500                            # dump some log
501                            print curr_time," ", $share;
502    
503                            my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);
504    
505                            $sth->{insert_backups}->execute(
506                                    $hostID,
507                                    $backupNum,
508                                    $backup->{'endTime'},
509                                    substr($backup->{'type'},0,4),
510                                    $shareID,
511                                    $size,
512                            );
513    
514                            print " commit";
515                            $dbh->commit();
516    
517                          my $dur = (time() - $t) || 1;                          my $dur = (time() - $t) || 1;
518                          printf(" %d/%d files %d/%d dirs [%.2f/s dur: %s]\n",                          printf(" %d/%d files %d/%d dirs %0.2f MB [%.2f/s dur: %s]\n",
519                                  $nf, $f, $nd, $d,                                  $nf, $f, $nd, $d,
520                                    ($size / 1024 / 1024),
521                                  ( ($f+$d) / $dur ),                                  ( ($f+$d) / $dur ),
522                                  fmt_time($dur)                                  fmt_time($dur)
523                          );                          );
524                          $dbh->commit();  
525                            hest_update($hostID, $shareID, $backupNum) if ($nf + $nd > 0);
526                  }                  }
527    
528          }          }
# Line 303  sub getShareID() { Line 551  sub getShareID() {
551    
552          $sth->{insert_share} ||= $dbh->prepare(qq{          $sth->{insert_share} ||= $dbh->prepare(qq{
553                  INSERT INTO shares                  INSERT INTO shares
554                          (hostID,name,share,localpath)                          (hostID,name,share)
555                  VALUES (?,?,?,?)                  VALUES (?,?,?)
556          });          });
557    
558          my $drop_down = $hostname . '/' . $share;          my $drop_down = $hostname . '/' . $share;
559          $drop_down =~ s#//+#/#g;          $drop_down =~ s#//+#/#g;
560    
561          $sth->{insert_share}->execute($hostID,$share, $drop_down ,undef);          $sth->{insert_share}->execute($hostID,$share, $drop_down);
562          return $dbh->last_insert_id(undef,undef,'shares',undef);          return $dbh->last_insert_id(undef,undef,'shares',undef);
563  }  }
564    
# Line 319  sub found_in_db { Line 567  sub found_in_db {
567          my @data = @_;          my @data = @_;
568          shift @data;          shift @data;
569    
570          my ($key, $shareID,undef,$name,$path,undef,$date,undef,$size) = @_;          my ($key, $shareID,undef,$name,$path,$date,undef,$size) = @_;
571    
572          return $beenThere->{$key} if (defined($beenThere->{$key}));          return $beenThere->{$key} if (defined($beenThere->{$key}));
573    
# Line 327  sub found_in_db { Line 575  sub found_in_db {
575                  SELECT 1 FROM files                  SELECT 1 FROM files
576                  WHERE shareID = ? and                  WHERE shareID = ? and
577                          path = ? and                          path = ? and
                         name = ? and  
578                          date = ? and                          date = ? and
579                          size = ?                          size = ?
580                    LIMIT 1
581          });          });
582    
583          my @param = ($shareID,$path,$name,$date,$size);          my @param = ($shareID,$path,$date,$size);
584          $sth->{file_in_db}->execute(@param);          $sth->{file_in_db}->execute(@param);
585          my $rows = $sth->{file_in_db}->rows;          my $rows = $sth->{file_in_db}->rows;
586          print STDERR "## found_in_db ",( $rows ? '+' : '-' ), join(" ",@param), "\n" if ($debug >= 3);          print STDERR "## found_in_db($shareID,$path,$date,$size) ",( $rows ? '+' : '-' ), join(" ",@param), "\n" if ($debug >= 3);
587    
588          $beenThere->{$key}++;          $beenThere->{$key}++;
589    
# Line 353  sub recurseDir($$$$$$$$) { Line 601  sub recurseDir($$$$$$$$) {
601    
602          print STDERR "\nrecurse($hostname,$backupNum,$share,$dir,$shareID)\n" if ($debug >= 1);          print STDERR "\nrecurse($hostname,$backupNum,$share,$dir,$shareID)\n" if ($debug >= 1);
603    
604          my ($nr_files, $new_files, $nr_dirs, $new_dirs) = (0,0,0,0);          my ($nr_files, $new_files, $nr_dirs, $new_dirs, $size) = (0,0,0,0,0);
605    
606          { # scope          { # scope
607                  my @stack;                  my @stack;
# Line 363  sub recurseDir($$$$$$$$) { Line 611  sub recurseDir($$$$$$$$) {
611    
612                  # first, add all the entries in current directory                  # first, add all the entries in current directory
613                  foreach my $path_key (keys %{$filesInBackup}) {                  foreach my $path_key (keys %{$filesInBackup}) {
614                            print STDERR "# file ",Dumper($filesInBackup->{$path_key}),"\n" if ($debug >= 3);
615                          my @data = (                          my @data = (
616                                  $shareID,                                  $shareID,
617                                  $backupNum,                                  $backupNum,
618                                  $path_key,                                  $path_key,
619                                  $filesInBackup->{$path_key}->{'relPath'},                                  $filesInBackup->{$path_key}->{'relPath'},
                                 $filesInBackup->{$path_key}->{'fullPath'},  
         #                       $filesInBackup->{$path_key}->{'sharePathM'},  
620                                  $filesInBackup->{$path_key}->{'mtime'},                                  $filesInBackup->{$path_key}->{'mtime'},
621                                  $filesInBackup->{$path_key}->{'type'},                                  $filesInBackup->{$path_key}->{'type'},
622                                  $filesInBackup->{$path_key}->{'size'}                                  $filesInBackup->{$path_key}->{'size'}
# Line 383  sub recurseDir($$$$$$$$) { Line 630  sub recurseDir($$$$$$$$) {
630                                  $filesInBackup->{$path_key}->{'size'}                                  $filesInBackup->{$path_key}->{'size'}
631                          ));                          ));
632    
633                            # daylight saving time change offset for 1h
634                            my $dst_offset = 60 * 60;
635    
636                            my $key_dst1 = join(" ", (
637                                    $shareID,
638                                    $dir,
639                                    $path_key,
640                                    $filesInBackup->{$path_key}->{'mtime'} - $dst_offset,
641                                    $filesInBackup->{$path_key}->{'size'}
642                            ));
643    
644                            my $key_dst2 = join(" ", (
645                                    $shareID,
646                                    $dir,
647                                    $path_key,
648                                    $filesInBackup->{$path_key}->{'mtime'} + $dst_offset,
649                                    $filesInBackup->{$path_key}->{'size'}
650                            ));
651    
652                          if (! defined($beenThere->{$key}) && ! found_in_db($key, @data)) {                          my $found;
653                            if (
654                                    ! defined($beenThere->{$key}) &&
655                                    ! defined($beenThere->{$key_dst1}) &&
656                                    ! defined($beenThere->{$key_dst2}) &&
657                                    ! ($found = found_in_db($key, @data))
658                            ) {
659                                  print STDERR "# key: $key [", $beenThere->{$key},"]" if ($debug >= 2);                                  print STDERR "# key: $key [", $beenThere->{$key},"]" if ($debug >= 2);
660    
661                                  if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {                                  if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {
662                                          $new_dirs++;                                          $new_dirs++ unless ($found);
663                                          print STDERR " dir\n" if ($debug >= 2);                                          print STDERR " dir\n" if ($debug >= 2);
664                                  } else {                                  } else {
665                                          $new_files++;                                          $new_files++ unless ($found);
666                                          print STDERR " file\n" if ($debug >= 2);                                          print STDERR " file\n" if ($debug >= 2);
667                                  }                                  }
668                                    $size += $filesInBackup->{$path_key}->{'size'} || 0;
669                          }                          }
670    
671                          if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {                          if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {
# Line 418  sub recurseDir($$$$$$$$) { Line 690  sub recurseDir($$$$$$$$) {
690                  print STDERR "## STACK ",join(", ", @stack),"\n" if ($debug >= 2);                  print STDERR "## STACK ",join(", ", @stack),"\n" if ($debug >= 2);
691    
692                  while ( my $dir = shift @stack ) {                  while ( my $dir = shift @stack ) {
693                          my ($f,$nf,$d,$nd) = recurseDir($bpc, $hostname, $files, $backupNum, $share, $dir, $shareID);                          my ($f,$nf,$d,$nd, $s) = recurseDir($bpc, $hostname, $files, $backupNum, $share, $dir, $shareID);
694                          print STDERR "# $dir f: $f nf: $nf d: $d nd: $nd\n" if ($debug >= 1);                          print STDERR "# $dir f: $f nf: $nf d: $d nd: $nd\n" if ($debug >= 1);
695                          $nr_files += $f;                          $nr_files += $f;
696                          $new_files += $nf;                          $new_files += $nf;
697                          $nr_dirs += $d;                          $nr_dirs += $d;
698                          $new_dirs += $nd;                          $new_dirs += $nd;
699                            $size += $s;
700                  }                  }
701          }          }
702    
703          return ($nr_files, $new_files, $nr_dirs, $new_dirs);          return ($nr_files, $new_files, $nr_dirs, $new_dirs, $size);
704  }  }
705    

Legend:
Removed from v.57  
changed lines
  Added in v.241

  ViewVC Help
Powered by ViewVC 1.1.26