/[BackupPC]/trunk/bin/BackupPC_updatedb
This is repository of my old source code which isn't updated any more. Go to git.rot13.org for current projects!
ViewVC logotype

Diff of /trunk/bin/BackupPC_updatedb

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

revision 6 by dpavlin, Thu Jun 23 09:47:59 2005 UTC revision 242 by dpavlin, Fri Nov 18 19:40:47 2005 UTC
# Line 1  Line 1 
1  #!/usr/local/bin/perl -w  #!/usr/local/bin/perl -w
 $| = 1;  
2    
3  use strict;  use strict;
 use DBI;  
4  use lib "__INSTALLDIR__/lib";  use lib "__INSTALLDIR__/lib";
5    
6    use DBI;
7  use BackupPC::Lib;  use BackupPC::Lib;
8  use BackupPC::View;  use BackupPC::View;
9  use Data::Dumper;  use Data::Dumper;
10  use Getopt::Std;  use Getopt::Std;
11    use Time::HiRes qw/time/;
12    use File::Pid;
13    use POSIX qw/strftime/;
14    use BackupPC::SearchLib;
15    
16  use constant BPC_FTYPE_DIR => 5;  use constant BPC_FTYPE_DIR => 5;
17    use constant EST_CHUNK => 100000;
18    
19    my $debug = 0;
20    $|=1;
21    
22    my $start_t = time();
23    
24    my $pidfile = new File::Pid;
25    
26    if (my $pid = $pidfile->running ) {
27            die "$0 already running: $pid\n";
28    } elsif ($pidfile->pid ne $$) {
29            $pidfile->remove;
30            $pidfile = new File::Pid;
31    }
32    $pidfile->write;
33    print STDERR "$0 using pid ",$pidfile->pid," file ",$pidfile->file,"\n";
34    
35    my $t_fmt = '%Y-%m-%d %H:%M:%S';
36    
37  my $hosts;  my $hosts;
38  my $bpc = BackupPC::Lib->new || die;  my $bpc = BackupPC::Lib->new || die;
39  my %Conf = $bpc->Conf();  my %Conf = $bpc->Conf();
40  my $TopDir = $bpc->TopDir();  my $TopDir = $bpc->TopDir();
41  my @beenThere = ();  my $beenThere = {};
42    
43  print Dumper(\%Conf);  my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";
44    my $user = $Conf{SearchUser} || '';
45    
46  my $dbh = DBI->connect("dbi:SQLite:dbname=$TopDir/$Conf{SearchDB}", "", "", { RaiseError => 1, AutoCommit => 0 });  my $use_hest = $Conf{HyperEstraierIndex};
47    my ($index_path, $index_node_url) = BackupPC::SearchLib::getHyperEstraier_url($use_hest);
48    
49    my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });
50    
51  my %opt;  my %opt;
52    
53  if ( !getopts("cdu", \%opt ) ) {  if ( !getopts("cdm:v:ij", \%opt ) ) {
54          print STDERR <<EOF;          print STDERR <<EOF;
55  usage: $0 (-c|-df|-u)  usage: $0 [-c|-d] [-m num] [-v|-v level] [-i]
56    
57  Options:  Options:
58          -c      Create database on first use          -c      create database on first use
59          -d      Delete database before import          -d      delete database before import
60          -u      Update database (import new revisions)          -m num  import just num increments for one host
61            -v num  set verbosity (debug) level (default $debug)
62            -i      update Hyper Estraier full text index
63            -j      update full text, don't check existing files
64    
65    Option -j is variation on -i. It will allow faster initial creation
66    of full-text index from existing database.
67    
68  EOF  EOF
69          exit 1;          exit 1;
70  }  }
71    
72  ###################################create tables############################3  if ($opt{v}) {
73            print "Debug level at $opt{v}\n";
74            $debug = $opt{v};
75    }
76    
77    #---- subs ----
78    
79  if ($opt{c})  sub fmt_time {
80      {          my $t = shift || return;
81        print "creating database...";          my $out = "";
82                  my ($ss,$mm,$hh) = gmtime($t);
83        $dbh->do(          $out .= "${hh}h" if ($hh);
84            q{          $out .= sprintf("%02d:%02d", $mm,$ss);
85                create table hosts          return $out;
86                  (   ID             INTEGER              PRIMARY KEY,  }
87                      name             VARCHAR(30)        NOT NULL,  
88                      IP       VARCHAR(20)        NOT NULL  sub curr_time {
89            return strftime($t_fmt,localtime());
90    }
91    
92    my $hest_db;
93    my $hest_node;
94    
95    sub signal {
96            my($sig) = @_;
97            if ($hest_db) {
98                    print "\nCaught a SIG$sig--syncing database and shutting down\n";
99                    $hest_db->sync();
100                    $hest_db->close();
101            }
102            exit(0);
103    }
104    
105    $SIG{'INT'}  = \&signal;
106    $SIG{'QUIT'} = \&signal;
107    
108    sub hest_update {
109    
110            my ($host_id, $share_id, $num) = @_;
111    
112            my $skip_check = $opt{j} && print STDERR "Skipping check for existing files -- this should be used only with initital import\n";
113    
114            unless ($use_hest) {
115                    print STDERR "HyperEstraier support not enabled in configuration\n";
116                    return;
117            }
118    
119            print curr_time," updating HyperEstraier:";
120    
121            my $t = time();
122    
123            my $offset = 0;
124            my $added = 0;
125    
126            print " opening index $use_hest";
127            if ($index_path) {
128                    $hest_db = HyperEstraier::Database->new();
129                    $hest_db->open($TopDir . $index_path, $HyperEstraier::Database::DBWRITER | $HyperEstraier::Database::DBCREAT);
130                    print " directly";
131            } elsif ($index_node_url) {
132                    $hest_node ||= HyperEstraier::Node->new($index_node_url);
133                    $hest_node->set_auth('admin', 'admin');
134                    print " via node URL";
135            } else {
136                    die "don't know how to use HyperEstraier Index $use_hest";
137            }
138            print " increment is " . EST_CHUNK . " files:";
139    
140            my $results = 0;
141    
142            do {
143    
144                    my $where = '';
145                    my @data;
146                    if (defined($host_id) && defined($share_id) && defined($num)) {
147                            $where = qq{
148                            WHERE
149                                    hosts.id = ? AND
150                                    shares.id = ? AND
151                                    files.backupnum = ?
152                            };
153                            @data = ( $host_id, $share_id, $num );
154                    }
155    
156                    my $limit = sprintf('LIMIT '.EST_CHUNK.' OFFSET %d', $offset);
157    
158                    my $sth = $dbh->prepare(qq{
159                            SELECT
160                                    files.id                        AS fid,
161                                    hosts.name                      AS hname,
162                                    shares.name                     AS sname,
163                                    -- shares.share                 AS sharename,
164                                    files.backupnum                 AS backupnum,
165                                    -- files.name                   AS filename,
166                                    files.path                      AS filepath,
167                                    files.date                      AS date,
168                                    files.type                      AS type,
169                                    files.size                      AS size,
170                                    files.shareid                   AS shareid,
171                                    backups.date                    AS backup_date
172                            FROM files
173                                    INNER JOIN shares       ON files.shareID=shares.ID
174                                    INNER JOIN hosts        ON hosts.ID = shares.hostID
175                                    INNER JOIN backups      ON backups.num = files.backupNum and backups.hostID = hosts.ID AND backups.shareID = shares.ID
176                            $where
177                            $limit
178                    });
179    
180                    $sth->execute(@data);
181                    $results = $sth->rows;
182    
183                    if ($results == 0) {
184                            print " - no new files\n";
185                            last;
186                    }
187    
188                    sub fmt_date {
189                            my $t = shift || return;
190                            my $iso = BackupPC::Lib::timeStamp($t);
191                            $iso =~ s/\s/T/;
192                            return $iso;
193                    }
194    
195                    while (my $row = $sth->fetchrow_hashref()) {
196    
197                            my $fid = $row->{'fid'} || die "no fid?";
198                            my $uri = 'file:///' . $fid;
199    
200                            unless ($skip_check) {
201                                    my $id = ($hest_db || $hest_node)->uri_to_id($uri);
202                                    next unless ($id == -1);
203                            }
204    
205                            # create a document object
206                            my $doc = HyperEstraier::Document->new;
207    
208                            # add attributes to the document object
209                            $doc->add_attr('@uri', $uri);
210    
211                            foreach my $c (@{ $sth->{NAME} }) {
212                                    $doc->add_attr($c, $row->{$c}) if (defined($row->{$c}));
213                            }
214    
215                            #$doc->add_attr('@cdate', fmt_date($row->{'date'}));
216    
217                            # add the body text to the document object
218                            my $path = $row->{'filepath'};
219                            $doc->add_text($path);
220                            $path =~ s/(.)/$1 /g;
221                            $doc->add_hidden_text($path);
222    
223                            print STDERR $doc->dump_draft,"\n" if ($debug > 1);
224    
225                            # register the document object to the database
226                            if ($hest_db) {
227                                    $hest_db->put_doc($doc, $HyperEstraier::Database::PDCLEAN);
228                            } elsif ($hest_node) {
229                                    $hest_node->put_doc($doc);
230                            } else {
231                                    die "not supported";
232                            }
233                            $added++;
234                    }
235    
236                    print " $added";
237                    $hest_db->sync() if ($index_path);
238    
239                    $offset += EST_CHUNK;
240    
241            } while ($results == EST_CHUNK);
242    
243            if ($index_path) {
244                    print ", close";
245                    $hest_db->close();
246            }
247    
248            my $dur = (time() - $t) || 1;
249            printf(" [%.2f/s dur: %s]\n",
250                    ( $added / $dur ),
251                    fmt_time($dur)
252            );
253    }
254    
255    #---- /subs ----
256    
257    
258    ## update index ##
259    if (($opt{i} || $opt{j} || ($index_path && ! -e $TopDir . $index_path)) && !$opt{c}) {
260            # update all
261            print "force update of HyperEstraier index ";
262            print "importing existing data" unless (-e $TopDir . $index_path);
263            print "by -i flag" if ($opt{i});
264            print "by -j flag" if ($opt{j});
265            print "\n";
266            hest_update();
267    }
268    
269    ## create tables ##
270    if ($opt{c}) {
271            sub do_index {
272                    my $index = shift || return;
273                    my ($table,$col,$unique) = split(/:/, $index);
274                    $unique ||= '';
275                    $index =~ s/\W+/_/g;
276                    print "$index on $table($col)" . ( $unique ? "u" : "" ) . " ";
277                    $dbh->do(qq{ create $unique index $index on $table($col) });
278            }
279    
280            print "creating tables...\n";
281    
282            $dbh->do( qq{
283                    create table hosts (
284                            ID      SERIAL          PRIMARY KEY,
285                            name    VARCHAR(30)     NOT NULL,
286                            IP      VARCHAR(15)
287                  );                              );            
288            }  
289        );                  create table shares (
290                                          ID      SERIAL          PRIMARY KEY,
291        $dbh->do(                          hostID  INTEGER         NOT NULL references hosts(id),
292            q{                          name    VARCHAR(30)     NOT NULL,
293                create table shares                          share   VARCHAR(200)    NOT NULL
                 (   ID             INTEGER           PRIMARY KEY,  
                     hostID         INTEGER           NOT NULL,  
                     name           VARCHAR(30)       NOT NULL,  
                     share          VARCHAR(200)      NOT NULL,  
                     localpath      VARCHAR(200)        
294                  );                              );            
295            }  
296        );                  create table dvds (
297                                    ID      SERIAL          PRIMARY KEY,
298        $dbh->do(                          num     INTEGER         NOT NULL,
299            q{                          name    VARCHAR(255)    NOT NULL,
300                create table backups                          mjesto  VARCHAR(255)
301                  ( hostID     INTEGER            NOT NULL,                  );
302                      num      INTEGER            NOT NULL,  
303                      date             DATE,                  create table backups (
304                      type             CHAR(1),                          id      serial,
305                      PRIMARY KEY(hostID, num)                          hostID  INTEGER         NOT NULL references hosts(id),
306                            num     INTEGER         NOT NULL,
307                            date    integer         NOT NULL,
308                            type    CHAR(4)         not null,
309                            shareID integer         not null references shares(id),
310                            size    bigint          not null,
311                            inc_size bigint         not null default -1,
312                            inc_deleted boolean     default false,
313                            parts   integer         not null default 1,
314                            PRIMARY KEY(id)
315                  );                              );            
           }  
       );  
316    
317        $dbh->do(                  create table files (
318            q{                          ID              SERIAL,
319                create table dvds                          shareID         INTEGER NOT NULL references shares(id),
320                  ( ID         INTEGER            PRIMARY KEY,                          backupNum       INTEGER NOT NULL,
321                      num      INTEGER            NOT NULL,                          name            VARCHAR(255) NOT NULL,
322                      name             VARCHAR(255)       NOT NULL,                          path            VARCHAR(255) NOT NULL,
323                      mjesto     VARCHAR(255)                          date            integer NOT NULL,
324                            type            INTEGER NOT NULL,
325                            size            bigint  NOT NULL,
326                            primary key(id)
327                    );
328    
329                    create table archive (
330                            id              serial,
331                            dvd_nr          int not null,
332                            total_size      bigint default -1,
333                            note            text,
334                            username        varchar(20) not null,
335                            date            timestamp default now(),
336                            primary key(id)
337                    );      
338    
339                    create table archive_backup (
340                            archive_id      int not null references archive(id) on delete cascade,
341                            backup_id       int not null references backups(id),
342                            primary key(archive_id, backup_id)
343                    );
344    
345                    create table archive_burned (
346                            archive_id      int references archive(id),
347                            date            timestamp default now(),
348                            part            int not null default 1,
349                            copy            int not null default 1,
350                            iso_size bigint default -1
351                  );                  );
           }  
       );  
352    
353        $dbh->do(                  create table backup_parts (
354            q{                              id serial,
355                create table files                          backup_id int references backups(id),
356                  (   ID         INTEGER          NOT NULL PRIMARY KEY,                            part_nr int not null check (part_nr > 0),
357                      shareID    INTEGER          NOT NULL,                          tar_size bigint not null check (tar_size > 0),
358                      backupNum  INTEGER          NOT NULL,                          size bigint not null check (size > 0),
359                      name       VARCHAR(255)     NOT NULL,                          md5 text not null,
360                      path       VARCHAR(255)     NOT NULL,                          items int not null check (items > 0),
361                      fullpath   VARCHAR(255)     NOT NULL,                          date timestamp default now(),
362                      date       TIMESTAMP        NOT NULL,                          primary key(id)
                     type       INTEGER          NOT NULL,  
                     size       INTEGER          NOT NULL,  
                     dvdid      INTEGER            
363                  );                  );
364            }          });
365        );  
366        print "done\n";          print "creating indexes: ";
367    }  
368            foreach my $index (qw(
369  if ($opt{d})                  hosts:name
370    {                  backups:hostID
371        print("deleting db first...\n");                  backups:num
372                          backups:shareID
373        $dbh->do(                  shares:hostID
374            q{ DELETE FROM hosts; }                  shares:name
375            );                  files:shareID
376        $dbh->do(                  files:path
377            q{ DELETE FROM shares; }                  files:name
378            );                  files:date
379        $dbh->do(                  files:size
380            q{ DELETE FROM files;}                  archive:dvd_nr
381            );                  archive_burned:archive_id
382        $dbh->do(                  backup_parts:backup_id,part_nr
383            q{ DELETE FROM dvds;}          )) {
384            );                  do_index($index);
385        $dbh->do(          }
386            q{ DELETE FROM backups; }  
387            );          print " creating sequence: ";
388    }          foreach my $seq (qw/dvd_nr/) {
389                    print "$seq ";
390                    $dbh->do( qq{ CREATE SEQUENCE $seq } );
391            }
392    
393    
394  #################################INSERT VALUES#############################          print "...\n";
395    
396            $dbh->commit;
397    
398    }
399    
400    ## delete data before inseting ##
401    if ($opt{d}) {
402            print "deleting ";
403            foreach my $table (qw(files dvds backups shares hosts)) {
404                    print "$table ";
405                    $dbh->do(qq{ DELETE FROM $table });
406            }
407            print " done...\n";
408    
409            $dbh->commit;
410    }
411    
412    ## insert new values ##
413    
414  # get hosts  # get hosts
415  $hosts = $bpc->HostInfoRead("localhost");  $hosts = $bpc->HostInfoRead();
 my $host_key;  
416  my $hostID;  my $hostID;
417  my $shareID;  my $shareID;
418  foreach $host_key (keys %{$hosts})  
419  {  my $sth;
420    my $hostname = $hosts->{$host_key}->{'host'};  
421    my $backups;  $sth->{insert_hosts} = $dbh->prepare(qq{
422    my $sql;  INSERT INTO hosts (name, IP) VALUES (?,?)
423    });
424    $sql = q{ SELECT ID FROM hosts WHERE name=? };  
425    my $st = $dbh->prepare($sql);  $sth->{hosts_by_name} = $dbh->prepare(qq{
426    $st->bind_param(1,$hosts->{$host_key}->{'host'});  SELECT ID FROM hosts WHERE name=?
427    $st->execute();  });
428    my $tmp = $st->fetchrow_hashref();  
429    if ($tmp->{'ID'} ne "")  $sth->{backups_count} = $dbh->prepare(qq{
430        {  SELECT COUNT(*)
431            $hostID = $tmp->{'ID'};  FROM backups
432        }  WHERE hostID=? AND num=? AND shareid=?
433      else  });
434        {  
435            $sql = q{ INSERT INTO hosts ( ID, name, IP) VALUES (NULL,"}.  $sth->{insert_backups} = $dbh->prepare(qq{
436                      $hosts->{$host_key}->{'host'}."\", \"".  INSERT INTO backups (hostID, num, date, type, shareid, size)
437                     $hosts->{$host_key}->{'ip'}."\");";  VALUES (?,?,?,?,?,-1)
438    });
439            $dbh->do($sql);  
440            $hostID = $dbh->func('last_insert_rowid');  $sth->{update_backups_size} = $dbh->prepare(qq{
441    UPDATE backups SET size = ?
442        }  WHERE hostID = ? and num = ? and date = ? and type =? and shareid = ?
443    $st->finish();  });
444    print("processing host ".$hosts->{$host_key}->{'host'}.":\n");  
445    $sth->{insert_files} = $dbh->prepare(qq{
446    INSERT INTO files
447            (shareID, backupNum, name, path, date, type, size)
448            VALUES (?,?,?,?,?,?,?)
449    });
450    
451    foreach my $host_key (keys %{$hosts}) {
452    
453            my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";
454    
455            $sth->{hosts_by_name}->execute($hosts->{$host_key}->{'host'});
456    
457            unless (($hostID) = $sth->{hosts_by_name}->fetchrow_array()) {
458                    $sth->{insert_hosts}->execute(
459                            $hosts->{$host_key}->{'host'},
460                            $hosts->{$host_key}->{'ip'}
461                    );
462    
463                    $hostID = $dbh->last_insert_id(undef,undef,'hosts',undef);
464            }
465    
466            print "host ".$hosts->{$host_key}->{'host'}.": ";
467    
468    # get backups for a host          # get backups for a host
469    my @backups = $bpc->BackupInfoRead($hostname);          my @backups = $bpc->BackupInfoRead($hostname);
470    foreach my $backup (@backups)          my $incs = scalar @backups;
471    {          print  "$incs increments\n";
472      my $backupNum = $backup->{'num'};  
473      my @backupShares = ();          my $inc_nr = 0;
474            $beenThere = {};
475          
476      if ($opt{u})          foreach my $backup (@backups) {
477          {  
478              my $sql = q{                  $inc_nr++;
479                    SELECT COUNT(*) AS broj                  last if ($opt{m} && $inc_nr > $opt{m});
480                    FROM backups  
481                    WHERE hostID=? AND                  my $backupNum = $backup->{'num'};
482                          num=?                  my @backupShares = ();
483                  };  
484                                printf("%-10s %2d/%-2d #%-2d %s %5s/%5s files (date: %s dur: %s)\n",
485              my $st  = $dbh->prepare($sql);                          $hosts->{$host_key}->{'host'},
486              $st->bind_param(1,$hostID);                          $inc_nr, $incs, $backupNum,
487              $st->bind_param(2,$backupNum);                          $backup->{type} || '?',
488              $st->execute();                          $backup->{nFilesNew} || '?', $backup->{nFiles} || '?',
489              my $tmp = $st->fetchrow_hashref();                          strftime($t_fmt,localtime($backup->{startTime})),
490              $st->finish();                          fmt_time($backup->{endTime} - $backup->{startTime})
491              if ($tmp->{'broj'} > 0)                  );
492                {  
493                    next;                  my $files = BackupPC::View->new($bpc, $hostname, \@backups, 1);
494                }                  foreach my $share ($files->shareList($backupNum)) {
495          }  
496                                  my $t = time();
497      print "\tprocessing backup no. $backupNum...";  
498      my $sql =                              $shareID = getShareID($share, $hostID, $hostname);
499          q{                  
500              INSERT INTO backups (hostID, num, date, type)                          $sth->{backups_count}->execute($hostID, $backupNum, $shareID);
501                VALUES                          my ($count) = $sth->{backups_count}->fetchrow_array();
502                (}.$hostID.",". $backupNum.q{, }.$backup->{'endTime'}.",\"". $backup->{'type'}.q{");                          # skip if allready in database!
503           };                          next if ($count > 0);
504      $dbh->do($sql);  
505                            # dump some log
506      my $files = BackupPC::View->new($bpc, $hostname, \@backups);                          print curr_time," ", $share;
507      @backupShares = $files->shareList($backupNum);  
508      foreach my $share (@backupShares)                          $sth->{insert_backups}->execute(
509      {                                        $hostID,
510        my @flattenedFiles = ();                                  $backupNum,
511        clearBeenThereCache();                                  $backup->{'endTime'},
512        print "\n\t\tprocessing share ".$share."...";                                  substr($backup->{'type'},0,4),
513        $shareID = getShareID($share, $hostID, $hostname);                                  $shareID,
514                                    );
515        @flattenedFiles = recurseDir($bpc, $hostname, \@backups, $backupNum, $share, "");  
516        print "done\n";                          my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);
517        print "\t\tinserting data into db...";  
518        foreach my $file (@flattenedFiles)                          $sth->{update_backups_size}->execute(
519            {                                  $size,
520                $dbh->do("INSERT INTO files(ID, shareID, backupNum, name, path, fullpath, date, type, size) VALUES "                                  $hostID,
521                    ."( NULL, $shareID, "                                  $backupNum,
522                    .$backupNum.", \""                                  $backup->{'endTime'},
523                    .$file->{'fileName'}."\", \""                                  substr($backup->{'type'},0,4),
524                    .$file->{'relPath'}. "\", \""                                  $shareID,
525                    .$file->{'fullPath'}."\", "                          );
526                    .$file->{'mtime'}.", "  
527                    .$file->{'type'}.", "                          print " commit";
528                    .$file->{'size'}.")"                          $dbh->commit();
529                    );  
530            }                          my $dur = (time() - $t) || 1;
531        print "done\n";                          printf(" %d/%d files %d/%d dirs %0.2f MB [%.2f/s dur: %s]\n",
532      }                                  $nf, $f, $nd, $d,
533    }                                  ($size / 1024 / 1024),
534    print "done.\n";                                  ( ($f+$d) / $dur ),
535                                    fmt_time($dur)
536                            );
537    
538                            hest_update($hostID, $shareID, $backupNum) if ($nf + $nd > 0);
539                    }
540    
541            }
542  }  }
543    undef $sth;
544  $dbh->commit();  $dbh->commit();
545  $dbh->disconnect();  $dbh->disconnect();
546    
547    print "total duration: ",fmt_time(time() - $start_t),"\n";
548    
549    $pidfile->remove;
550    
551    sub getShareID() {
552    
553            my ($share, $hostID, $hostname) = @_;
554    
555            $sth->{share_id} ||= $dbh->prepare(qq{
556                    SELECT ID FROM shares WHERE hostID=? AND name=?
557            });
558    
559            $sth->{share_id}->execute($hostID,$share);
560    
561            my ($id) = $sth->{share_id}->fetchrow_array();
562    
563            return $id if (defined($id));
564    
565            $sth->{insert_share} ||= $dbh->prepare(qq{
566                    INSERT INTO shares
567                            (hostID,name,share)
568                    VALUES (?,?,?)
569            });
570    
571            my $drop_down = $hostname . '/' . $share;
572            $drop_down =~ s#//+#/#g;
573    
574            $sth->{insert_share}->execute($hostID,$share, $drop_down);
575            return $dbh->last_insert_id(undef,undef,'shares',undef);
576    }
577    
578    sub found_in_db {
579    
580  sub haveBeenThere          my @data = @_;
581  {          shift @data;
582    my ($where) = @_;  
583              my ($key, $shareID,undef,$name,$path,$date,undef,$size) = @_;
584    foreach my $st (@beenThere)  
585    {          return $beenThere->{$key} if (defined($beenThere->{$key}));
586      if ($where eq $st)  
587      {          $sth->{file_in_db} ||= $dbh->prepare(qq{
588        return 1;                  SELECT 1 FROM files
589      }                  WHERE shareID = ? and
590    }                          path = ? and
591                              date = ? and
592    push(@beenThere, $where);                          size = ?
593    return 0;                  LIMIT 1
594  }          });
595    
596  sub clearBeenThereCache          my @param = ($shareID,$path,$date,$size);
597  {          $sth->{file_in_db}->execute(@param);
598    @beenThere = ();          my $rows = $sth->{file_in_db}->rows;
599  }          print STDERR "## found_in_db($shareID,$path,$date,$size) ",( $rows ? '+' : '-' ), join(" ",@param), "\n" if ($debug >= 3);
600    
601  sub getShareID()          $beenThere->{$key}++;
602    {  
603        my ($share, $hostID, $hostname) = @_;          $sth->{'insert_files'}->execute(@data) unless ($rows);
604        my $tmp;          return $rows;
605          }
       my $st = $dbh -> prepare(" SELECT shares.ID AS ID FROM shares WHERE hostID=? AND name=?");  
       $st -> execute($hostID,$share);  
       my $tmp = $st->fetchrow_hashref();  
       $st->finish();  
       if ($tmp)  
         {  
             return $tmp->{'ID'};  
         }  
       my $sql =  
           q{  
               INSERT INTO shares(ID,hostID,name,share,localpath)  
                 VALUES    
                (NULL,}.                    
               "$hostID,\"$share\",\"//$hostname$share\",NULL);";                
       $dbh->do($sql);  
       return $dbh->func('last_insert_rowid');            
   }  
606    
607  ####################################################  ####################################################
608  # recursing through filesystem structure and       #  # recursing through filesystem structure and       #
609  # and returning flattened files list               #  # and returning flattened files list               #
610  ####################################################  ####################################################
611  sub recurseDir  sub recurseDir($$$$$$$$) {
 {  
   my ($bpc, $hostname, $backups, $backupNo, $share, $dir) = @_;  
   my @ret = ();  
   my $files = BackupPC::View->new($bpc, $hostname, $backups);              
   my $filesInBackup = $files->dirAttrib($backupNo, $share, $dir);  
   my $file_key = "";  
612    
613            my ($bpc, $hostname, $files, $backupNum, $share, $dir, $shareID) = @_;
614    # first, add all the entries in current directory  
615    foreach $file_key (keys %{$filesInBackup})          print STDERR "\nrecurse($hostname,$backupNum,$share,$dir,$shareID)\n" if ($debug >= 1);
616    {  
617      push(@ret, {          my ($nr_files, $new_files, $nr_dirs, $new_dirs, $size) = (0,0,0,0,0);
618                   'fileName' => $file_key,  
619                   'relPath'  => $filesInBackup->{$file_key}->{'relPath'},          { # scope
620                   'fullPath' => $filesInBackup->{$file_key}->{'fullPath'},                  my @stack;
621                   'sharePath'=> $filesInBackup->{$file_key}->{'sharePathM'},  
622                   'size'     => $filesInBackup->{$file_key}->{'size'},                  print STDERR "# dirAttrib($backupNum, $share, $dir)\n" if ($debug >= 2);
623                   'mtime'    => $filesInBackup->{$file_key}->{'mtime'},                  my $filesInBackup = $files->dirAttrib($backupNum, $share, $dir);
624                   'type'     => $filesInBackup->{$file_key}->{'type'}  
625                 });                    # first, add all the entries in current directory
626    }                  foreach my $path_key (keys %{$filesInBackup}) {
627                                print STDERR "# file ",Dumper($filesInBackup->{$path_key}),"\n" if ($debug >= 3);
628    # then, recurse thru subfolders                          my @data = (
629    foreach my $fold (@ret)                                  $shareID,
630    {                                  $backupNum,
631     if ($fold->{'type'} == BPC_FTYPE_DIR &&                                  $path_key,
632         haveBeenThere($fold->{'relPath'}) != 1                                  $filesInBackup->{$path_key}->{'relPath'},
633        )                                  $filesInBackup->{$path_key}->{'mtime'},
634      {                                  $filesInBackup->{$path_key}->{'type'},
635                                          $filesInBackup->{$path_key}->{'size'}
636        push(@ret,                          );
637             recurseDir($bpc, $hostname, $backups, $backupNo, $share, $fold->{'relPath'})  
638            );                          my $key = join(" ", (
639      }                                  $shareID,
640    }                                  $dir,
641    return @ret;                                  $path_key,
642                                    $filesInBackup->{$path_key}->{'mtime'},
643                                    $filesInBackup->{$path_key}->{'size'}
644                            ));
645    
646                            # daylight saving time change offset for 1h
647                            my $dst_offset = 60 * 60;
648    
649                            my $key_dst_prev = join(" ", (
650                                    $shareID,
651                                    $dir,
652                                    $path_key,
653                                    $filesInBackup->{$path_key}->{'mtime'} - $dst_offset,
654                                    $filesInBackup->{$path_key}->{'size'}
655                            ));
656    
657                            my $key_dst_next = join(" ", (
658                                    $shareID,
659                                    $dir,
660                                    $path_key,
661                                    $filesInBackup->{$path_key}->{'mtime'} + $dst_offset,
662                                    $filesInBackup->{$path_key}->{'size'}
663                            ));
664    
665                            my $found;
666                            if (
667                                    ! defined($beenThere->{$key}) &&
668                                    ! defined($beenThere->{$key_dst_prev}) &&
669                                    ! defined($beenThere->{$key_dst_next}) &&
670                                    ! ($found = found_in_db($key, @data))
671                            ) {
672                                    print STDERR "# key: $key [", $beenThere->{$key},"]" if ($debug >= 2);
673    
674                                    if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {
675                                            $new_dirs++ unless ($found);
676                                            print STDERR " dir\n" if ($debug >= 2);
677                                    } else {
678                                            $new_files++ unless ($found);
679                                            print STDERR " file\n" if ($debug >= 2);
680                                    }
681                                    $size += $filesInBackup->{$path_key}->{'size'} || 0;
682                            }
683    
684                            if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {
685                                    $nr_dirs++;
686    
687                                    my $full_path = $dir . '/' . $path_key;
688                                    push @stack, $full_path;
689                                    print STDERR "### store to stack: $full_path\n" if ($debug >= 3);
690    
691    #                               my ($f,$nf,$d,$nd) = recurseDir($bpc, $hostname, $backups, $backupNum, $share, $path_key, $shareID) unless ($beenThere->{$key});
692    #
693    #                               $nr_files += $f;
694    #                               $new_files += $nf;
695    #                               $nr_dirs += $d;
696    #                               $new_dirs += $nd;
697    
698                            } else {
699                                    $nr_files++;
700                            }
701                    }
702    
703                    print STDERR "## STACK ",join(", ", @stack),"\n" if ($debug >= 2);
704    
705                    while ( my $dir = shift @stack ) {
706                            my ($f,$nf,$d,$nd, $s) = recurseDir($bpc, $hostname, $files, $backupNum, $share, $dir, $shareID);
707                            print STDERR "# $dir f: $f nf: $nf d: $d nd: $nd\n" if ($debug >= 1);
708                            $nr_files += $f;
709                            $new_files += $nf;
710                            $nr_dirs += $d;
711                            $new_dirs += $nd;
712                            $size += $s;
713                    }
714            }
715    
716            return ($nr_files, $new_files, $nr_dirs, $new_dirs, $size);
717  }  }
718    

Legend:
Removed from v.6  
changed lines
  Added in v.242

  ViewVC Help
Powered by ViewVC 1.1.26