/[BackupPC]/trunk/bin/BackupPC_tarIncCreate
This is repository of my old source code which isn't updated any more. Go to git.rot13.org for current projects!
ViewVC logotype

Diff of /trunk/bin/BackupPC_tarIncCreate

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

revision 156 by dpavlin, Mon Oct 10 13:04:49 2005 UTC revision 257 by dpavlin, Mon Dec 12 20:59:55 2005 UTC
# Line 1  Line 1 
1  #!/usr/bin/perl  #!/usr/bin/perl -w
2  #============================================================= -*-perl-*-  #============================================================= -*-perl-*-
3  #  #
4  # BackupPC_tarIncCreate: create a tar archive of an existing incremental dump  # BackupPC_tarIncCreate: create a tar archive of an existing incremental dump
# Line 72  use BackupPC::View; Line 72  use BackupPC::View;
72  use BackupPC::SearchLib;  use BackupPC::SearchLib;
73  use Time::HiRes qw/time/;  use Time::HiRes qw/time/;
74  use POSIX qw/strftime/;  use POSIX qw/strftime/;
75    use File::Which;
76    use File::Path;
77    use File::Slurp;
78  use Data::Dumper;       ### FIXME  use Data::Dumper;       ### FIXME
79    
80  die("BackupPC::Lib->new failed\n") if ( !(my $bpc = BackupPC::Lib->new) );  die("BackupPC::Lib->new failed\n") if ( !(my $bpc = BackupPC::Lib->new) );
81  my $TopDir = $bpc->TopDir();  my $TopDir = $bpc->TopDir();
82  my $BinDir = $bpc->BinDir();  my $BinDir = $bpc->BinDir();
83  my %Conf   = $bpc->Conf();  my %Conf   = $bpc->Conf();
84    %BackupPC::SearchLib::Conf = %Conf;
85  my %opts;  my %opts;
86  my $in_backup_increment;  my $in_backup_increment;
87    
88    
89  if ( !getopts("th:n:p:r:s:b:w:v", \%opts) ) {  if ( !getopts("th:n:p:r:s:b:w:vdf", \%opts) ) {
90      print STDERR <<EOF;      print STDERR <<EOF;
91  usage: $0 [options]  usage: $0 [options]
92    Required options:    Required options:
# Line 98  usage: $0 [options] Line 102  usage: $0 [options]
102       -p pathAdd      new path prefix       -p pathAdd      new path prefix
103       -b BLOCKS       BLOCKS x 512 bytes per record (default 20; same as tar)       -b BLOCKS       BLOCKS x 512 bytes per record (default 20; same as tar)
104       -w writeBufSz   write buffer size (default 1048576 = 1MB)       -w writeBufSz   write buffer size (default 1048576 = 1MB)
105         -f              overwrite existing parts
106       -v              verbose output       -v              verbose output
107         -d              debug output
108  EOF  EOF
109      exit(1);      exit(1);
110  }  }
111    
112  if ( $opts{h} !~ /^([\w\.\s-]+)$/ ) {  if ( $opts{h} !~ /^([\w\.\s-]+)$/ ) {
113      print(STDERR "$0: bad host name '$opts{h}'\n");      die "$0: bad host name '$opts{h}'\n";
     exit(1);  
114  }  }
115  my $Host = $opts{h};  my $Host = $opts{h};
116    
117  if ( $opts{n} !~ /^(-?\d+)$/ ) {  if ( $opts{n} !~ /^(-?\d+)$/ ) {
118      print(STDERR "$0: bad dump number '$opts{n}'\n");      die "$0: bad dump number '$opts{n}'\n";
     exit(1);  
119  }  }
120  my $Num = $opts{n};  my $Num = $opts{n};
121    
122    my $bin;
123    foreach my $c (qw/gzip md5sum tee/) {
124            $bin->{$c} = which($c) || die "$0 needs $c, install it\n";
125    }
126    
127  my @Backups = $bpc->BackupInfoRead($Host);  my @Backups = $bpc->BackupInfoRead($Host);
128  my $FileCnt = 0;  my $FileCnt = 0;
129  my $ByteCnt = 0;  my $ByteCnt = 0;
130  my $DirCnt = 0;  my $DirCnt = 0;
131  my $SpecialCnt = 0;  my $SpecialCnt = 0;
132  my $ErrorCnt = 0;  my $ErrorCnt = 0;
133    my $current_tar_size = 0;
134    my $total_increment_size = 0;
135    
136  my $i;  my $i;
137  $Num = $Backups[@Backups + $Num]{num} if ( -@Backups <= $Num && $Num < 0 );  $Num = $Backups[@Backups + $Num]{num} if ( -@Backups <= $Num && $Num < 0 );
# Line 128  for ( $i = 0 ; $i < @Backups ; $i++ ) { Line 139  for ( $i = 0 ; $i < @Backups ; $i++ ) {
139      last if ( $Backups[$i]{num} == $Num );      last if ( $Backups[$i]{num} == $Num );
140  }  }
141  if ( $i >= @Backups ) {  if ( $i >= @Backups ) {
142      print(STDERR "$0: bad backup number $Num for host $Host\n");      die "$0: bad backup number $Num for host $Host\n";
     exit(1);  
143  }  }
144    
145  my $PathRemove = $1 if ( $opts{r} =~ /(.+)/ );  my $PathRemove = $1 if ( $opts{r} =~ /(.+)/ );
146  my $PathAdd    = $1 if ( $opts{p} =~ /(.+)/ );  my $PathAdd    = $1 if ( $opts{p} =~ /(.+)/ );
147  if ( $opts{s} !~ /^([\w\s\.\/\$-]+)$/ && $opts{s} ne "*" ) {  if ( $opts{s} !~ /^([\w\s\.\/\$-]+)$/ && $opts{s} ne "*" ) {
148      print(STDERR "$0: bad share name '$opts{s}'\n");      die "$0: bad share name '$opts{s}'\n";
     exit(1);  
149  }  }
150  our $ShareName = $opts{s};  our $ShareName = $opts{s};
151  our $view = BackupPC::View->new($bpc, $Host, \@Backups);  our $view = BackupPC::View->new($bpc, $Host, \@Backups);
152    
153    # database
154    
155    my $dsn = $Conf{SearchDSN};
156    my $db_user = $Conf{SearchUser} || '';
157    
158    my $dbh = DBI->connect($dsn, $db_user, "", { RaiseError => 1, AutoCommit => 0} );
159    
160    my $sth_inc_size = $dbh->prepare(qq{
161            update backups set
162                    inc_size = ?,
163                    parts = ?,
164                    inc_deleted = false
165            where id = ?
166    });
167    my $sth_backup_parts = $dbh->prepare(qq{
168            insert into backup_parts (
169                    backup_id,
170                    part_nr,
171                    tar_size,
172                    size,
173                    md5,
174                    items
175            ) values (?,?,?,?,?,?)
176    });
177    
178  #  #
179  # This constant and the line of code below that uses it are borrowed  # This constant and the line of code below that uses it are borrowed
180  # from Archive::Tar.  Thanks to Calle Dybedahl and Stephen Zander.  # from Archive::Tar.  Thanks to Calle Dybedahl and Stephen Zander.
# Line 163  my(%HardLinkExtraFiles, @HardLinks); Line 197  my(%HardLinkExtraFiles, @HardLinks);
197  #  #
198  # Write out all the requested files/directories  # Write out all the requested files/directories
199  #  #
200  binmode(STDOUT);  
201  my $fh = *STDOUT;  my $max_file_size = $Conf{'MaxArchiveFileSize'} || die "problem with MaxArchiveFileSize parametar";
202    
203    my $tar_dir = $Conf{InstallDir}.'/'.$Conf{GzipTempDir};
204    die "problem with $tar_dir, check GzipTempDir in configuration\n" unless (-d $tar_dir && -w $tar_dir);
205    
206    my $tar_file = BackupPC::SearchLib::getGzipName($Host, $ShareName, $Num) || die "can't getGzipName($Host, $ShareName, $Num)";
207    
208    my $tar_path_final = $tar_dir . '/' . $tar_file;
209    my $tar_path = $tar_path_final . '.tmp';
210    
211    $tar_path =~ s#//#/#g;
212    
213    my $sth = $dbh->prepare(qq{
214            SELECT
215                    backups.id
216            FROM backups
217                    JOIN shares on shares.id = shareid
218                    JOIN hosts on hosts.id = shares.hostid
219            WHERE hosts.name = ? and shares.name = ? and backups.num = ?
220    });
221    $sth->execute($Host, $ShareName, $Num);
222    my ($backup_id) = $sth->fetchrow_array;
223    $sth->finish;
224    
225    
226    # delete exising backup_parts
227    my $sth_delete_backup_parts = $dbh->prepare(qq{
228            delete from backup_parts
229            where backup_id = ?
230    });
231    $sth_delete_backup_parts->execute($backup_id);
232    
233    
234    print STDERR "backup_id: $backup_id working dir: $tar_dir, max uncompressed size $max_file_size bytes, tar $tar_file\n" if ($opts{d});
235    
236    if (-e $tar_path_final) {
237            if ($opts{f}) {
238                    rmtree $tar_path_final || die "can't remove $tar_path_final: $!";
239            } else {
240                    die "$tar_path_final allready exists\n";
241            }
242    }
243    
244    my $fh;
245    my $part = 0;
246    my $no_files = 0;
247    my $items_in_part = 0;
248    
249    sub new_tar_part {
250            my $arg = {@_};
251    
252            if ($fh) {
253                    return if ($current_tar_size == 0);
254    
255                    print STDERR " $part";
256    
257                    #
258                    # Finish with two null 512 byte headers,
259                    # and then round out a full block.
260                    #
261                    my $data = "\0" x ($tar_header_length * 2);
262                    TarWrite($fh, \$data);
263                    TarWrite($fh, undef);
264    
265                    close($fh) || die "can't close archive part $part: $!";
266    
267                    my $file = $tar_path . '/' . $part;
268    
269                    my $md5 = read_file( $file . '.md5' ) || die "can't read md5sum file ${file}.md5";
270                    $md5 =~ s/\s.*$//;
271    
272                    my $size = (stat( $file . '.tar.gz' ))[7] || die "can't stat ${file}.tar.gz";
273    
274                    $sth_backup_parts->execute(
275                            $backup_id,
276                            $part,
277                            $current_tar_size,
278                            $size,
279                            $md5,
280                            $items_in_part,
281                    );
282    
283                    $total_increment_size += $size;
284    
285                    if ($arg->{close}) {
286    
287                            sub move($$) {
288                                    my ($from,$to) = @_;
289                                    print STDERR "# rename $from -> $to\n" if ($opts{d});
290                                    rename $from, $to || die "can't move $from -> $to: $!\n";
291                            }
292    
293                            if ($part == 1) {
294                                    print STDERR " single" if ($opts{v});
295                                    move("${tar_path}/1.tar.gz", "${tar_path_final}.tar.gz");
296                                    move("${tar_path}/1.md5", "${tar_path_final}.md5");
297                                    rmtree $tar_path or die "can't remove temporary dir $tar_path: $!";
298                            } else {
299                                    print STDERR " [last]" if ($opts{v});
300                                    move("${tar_path}", "${tar_path_final}");
301                            }
302    
303                            $sth_inc_size->execute(
304                                    $total_increment_size,
305                                    $part,
306                                    $backup_id
307                            );
308    
309                            print STDERR ", $total_increment_size bytes\n" if ($opts{v});
310    
311                            return;
312                    }
313    
314            }
315    
316            $part++;
317    
318            # if this is first part, create directory
319    
320            if ($part == 1) {
321                    if (-e $tar_path) {
322                            print STDERR "# deleting existing $tar_path\n" if ($opts{d});
323                            rmtree($tar_path);
324                    }
325                    mkdir($tar_path) || die "can't create directory $tar_path: $!";
326    
327                    sub abort_cleanup {
328                            print STDERR "ABORTED: cleanup temp dir";
329                            rmtree($tar_path);
330                            $dbh->rollback;
331                            exit 1;
332                    }
333    
334                    $SIG{'INT'}  = \&abort_cleanup;
335                    $SIG{'QUIT'} = \&abort_cleanup;
336                    $SIG{'__DIE__'} = \&abort_cleanup;
337    
338            }
339    
340            my $file = $tar_path . '/' . $part;
341    
342            #
343            # create comprex pipe which will pass output through gzip
344            # for compression, create file on disk using tee
345            # and pipe same output to md5sum to create checksum
346            #
347    
348            my $cmd = '| ' . $bin->{'gzip'}   . ' ' . $Conf{GzipLevel} .      ' ' .
349                      '| ' . $bin->{'tee'}    . ' ' . $file . '.tar.gz' . ' ' .
350                      '| ' . $bin->{'md5sum'} . ' - > ' . $file . '.md5';
351    
352            print STDERR "## $cmd\n" if ($opts{d});
353    
354            open($fh, $cmd) or die "can't open $cmd: $!";
355            binmode($fh);
356    
357            $current_tar_size = 0;
358            $items_in_part = 0;
359    }
360    
361    new_tar_part();
362    
363  if (seedCache($Host, $ShareName, $Num)) {  if (seedCache($Host, $ShareName, $Num)) {
364          archiveWrite($fh, '/');          archiveWrite($fh, '/');
365          archiveWriteHardLinks($fh);          archiveWriteHardLinks($fh);
366            new_tar_part( close => 1 );
367  } else {  } else {
368          print STDERR "NOTE: no files found for $Host:$ShareName, increment $Num\n";          print STDERR "NOTE: no files found for $Host:$ShareName, increment $Num\n" if ($opts{v});
369            # remove temporary files if there are no files
370            rmtree($tar_path);
371  }  }
372    
373  #  #
 # Finish with two null 512 byte headers, and then round out a full  
 # block.  
 #  
 my $data = "\0" x ($tar_header_length * 2);  
 TarWrite($fh, \$data);  
 TarWrite($fh, undef);  
   
 #  
374  # print out totals if requested  # print out totals if requested
375  #  #
376  if ( $opts{t} ) {  if ( $opts{t} ) {
# Line 193  if ( $ErrorCnt && !$FileCnt && !$DirCnt Line 382  if ( $ErrorCnt && !$FileCnt && !$DirCnt
382      # Got errors, with no files or directories; exit with non-zero      # Got errors, with no files or directories; exit with non-zero
383      # status      # status
384      #      #
385      exit(1);      die "got errors or no files\n";
386  }  }
387  exit(0);  
388    $sth_inc_size->finish;
389    $sth_backup_parts->finish;
390    
391    $dbh->commit || die "can't commit changes to database";
392    $dbh->disconnect();
393    
394    exit;
395    
396  ###########################################################################  ###########################################################################
397  # Subroutines  # Subroutines
# Line 260  sub TarWrite Line 456  sub TarWrite
456  {  {
457      my($fh, $dataRef) = @_;      my($fh, $dataRef) = @_;
458    
459    
460      if ( !defined($dataRef) ) {      if ( !defined($dataRef) ) {
461          #          #
462          # do flush by padding to a full $WriteBufSz          # do flush by padding to a full $WriteBufSz
# Line 267  sub TarWrite Line 464  sub TarWrite
464          my $data = "\0" x ($WriteBufSz - length($WriteBuf));          my $data = "\0" x ($WriteBufSz - length($WriteBuf));
465          $dataRef = \$data;          $dataRef = \$data;
466      }      }
467    
468        # poor man's tell :-)
469        $current_tar_size += length($$dataRef);
470    
471      if ( length($WriteBuf) + length($$dataRef) < $WriteBufSz ) {      if ( length($WriteBuf) + length($$dataRef) < $WriteBufSz ) {
472          #          #
473          # just buffer and return          # just buffer and return
# Line 277  sub TarWrite Line 478  sub TarWrite
478      my $done = $WriteBufSz - length($WriteBuf);      my $done = $WriteBufSz - length($WriteBuf);
479      if ( syswrite($fh, $WriteBuf . substr($$dataRef, 0, $done))      if ( syswrite($fh, $WriteBuf . substr($$dataRef, 0, $done))
480                                  != $WriteBufSz ) {                                  != $WriteBufSz ) {
481          print(STDERR "Unable to write to output file ($!)\n");          die "Unable to write to output file ($!)\n";
         exit(1);  
482      }      }
483      while ( $done + $WriteBufSz <= length($$dataRef) ) {      while ( $done + $WriteBufSz <= length($$dataRef) ) {
484          if ( syswrite($fh, substr($$dataRef, $done, $WriteBufSz))          if ( syswrite($fh, substr($$dataRef, $done, $WriteBufSz))
485                              != $WriteBufSz ) {                              != $WriteBufSz ) {
486              print(STDERR "Unable to write to output file ($!)\n");              die "Unable to write to output file ($!)\n";
             exit(1);  
487          }          }
488          $done += $WriteBufSz;          $done += $WriteBufSz;
489      }      }
# Line 389  sub TarWriteFileInfo Line 588  sub TarWriteFileInfo
588  sub seedCache($$$) {  sub seedCache($$$) {
589          my ($host, $share, $dumpNo) = @_;          my ($host, $share, $dumpNo) = @_;
590    
591          my $dsn = $Conf{SearchDSN};          print STDERR curr_time(), "$host:$share #$dumpNo" if ($opts{v});
         my $db_user = $Conf{SearchUser} || '';  
           
         print STDERR curr_time(), "getting files for $host:$share increment $dumpNo..." if ($opts{v});  
592          my $sql = q{          my $sql = q{
593                  SELECT path                  SELECT path,size
594                  FROM files                  FROM files
595                          JOIN shares on shares.id = shareid                          JOIN shares on shares.id = shareid
596                          JOIN hosts on hosts.id = shares.hostid                          JOIN hosts on hosts.id = shares.hostid
597                  WHERE hosts.name = ? and shares.name = ? and backupnum = ?                  WHERE hosts.name = ? and shares.name = ? and backupnum = ?
598          };          };
599    
         my $dbh = DBI->connect($dsn, $db_user, "", { RaiseError => 1, AutoCommit => 1} );        
600          my $sth = $dbh->prepare($sql);            my $sth = $dbh->prepare($sql);  
601          $sth->execute($host, $share, $dumpNo);          $sth->execute($host, $share, $dumpNo);
602          my $count = $sth->rows;          my $count = $sth->rows;
603          print STDERR " found $count items\n" if ($opts{v});          print STDERR " $count items, parts:" if ($opts{v});
604          while (my $row = $sth->fetchrow_arrayref) {          while (my $row = $sth->fetchrow_arrayref) {
605  #print STDERR "+ ", $row->[0],"\n";  #print STDERR "+ ", $row->[0],"\n";
606                  $in_backup_increment->{ $row->[0] }++;                  $in_backup_increment->{ $row->[0] } = $row->[1];
607          }          }
608                    
609          $sth->finish();          $sth->finish();
         $dbh->disconnect();  
610    
611          return $count;          return $count;
612  }  }
613    
614    #
615    # calculate overhad for one file in tar
616    #
617    sub tar_overhead($) {
618            my $name = shift || '';
619    
620            # header, padding of file and two null blocks at end
621            my $len = 4 * $tar_header_length;
622    
623            # if filename is longer than 99 chars subtract blocks for
624            # long filename
625            if ( length($name) > 99 ) {
626                    $len += int( ( length($name) + $tar_header_length ) / $tar_header_length ) * $tar_header_length;
627            }
628    
629            return $len;
630    }
631    
632  my $Attr;  my $Attr;
633  my $AttrDir;  my $AttrDir;
634    
# Line 429  sub TarWriteFile Line 641  sub TarWriteFile
641    
642      $tarPath =~ s{//+}{/}g;      $tarPath =~ s{//+}{/}g;
643    
644  #print STDERR "? $tarPath\n";      #print STDERR "? $tarPath\n" if ($opts{d});
645      return unless ($in_backup_increment->{$tarPath});      my $size = $in_backup_increment->{$tarPath};
646  #print STDERR "A $tarPath\n";      return unless (defined($size));
647    
648        # is this file too large to fit into MaxArchiveFileSize?
649    
650        if ( ($current_tar_size + tar_overhead($tarPath) + $size) > $max_file_size ) {
651            print STDERR "# tar file $current_tar_size + $tar_header_length + $size > $max_file_size, splitting\n" if ($opts{d});
652            new_tar_part();
653        }
654    
655        #print STDERR "A $tarPath [$size] tell: $current_tar_size\n" if ($opts{d});
656        $items_in_part++;
657    
658      if ( defined($PathRemove)      if ( defined($PathRemove)
659              && substr($tarPath, 0, length($PathRemove)) eq $PathRemove ) {              && substr($tarPath, 0, length($PathRemove)) eq $PathRemove ) {
# Line 445  sub TarWriteFile Line 667  sub TarWriteFile
667          #          #
668          # Directory: just write the header          # Directory: just write the header
669          #          #
           
                   
670          $hdr->{name} .= "/" if ( $hdr->{name} !~ m{/$} );          $hdr->{name} .= "/" if ( $hdr->{name} !~ m{/$} );
671          TarWriteFileInfo($fh, $hdr);          TarWriteFileInfo($fh, $hdr);
672          $DirCnt++;          $DirCnt++;
# Line 460  sub TarWriteFile Line 680  sub TarWriteFile
680              $ErrorCnt++;              $ErrorCnt++;
681              return;              return;
682          }          }
683          TarWriteFileInfo($fh, $hdr);          # do we need to split file?
684          my($data, $size);          if ($hdr->{size} < $max_file_size) {
685          while ( $f->read(\$data, $BufSize) > 0 ) {                  TarWriteFileInfo($fh, $hdr);
686              TarWrite($fh, \$data);                  my($data, $size);
687              $size += length($data);                  while ( $f->read(\$data, $BufSize) > 0 ) {
688          }                      TarWrite($fh, \$data);
689          $f->close;                      $size += length($data);
690          TarWritePad($fh, $size);                  }
691                    $f->close;
692                    TarWritePad($fh, $size);
693                  $FileCnt++;                  $FileCnt++;
694                  $ByteCnt += $size;                  $ByteCnt += $size;
695            } else {
696                    my $full_size = $hdr->{size};
697                    my $orig_name = $hdr->{name};
698                    my $max_part_size = $max_file_size - tar_overhead($hdr->{name});
699    
700                    my $parts = int(($full_size + $max_part_size - 1) / $max_part_size);
701                    print STDERR "# splitting $orig_name [$full_size bytes] into $parts parts\n" if ($opts{d});
702                    foreach my $subpart ( 1 .. $parts ) {
703                            new_tar_part();
704                            if ($subpart < $parts) {
705                                    $hdr->{size} = $max_part_size;
706                            } else {
707                                    $hdr->{size} = $full_size % $max_part_size;
708                            }
709                            $hdr->{name} = $orig_name . '/' . $subpart;
710                            print STDERR "## creating part $subpart ",$hdr->{name}, " [", $hdr->{size}," bytes]\n";
711    
712                            TarWriteFileInfo($fh, $hdr);
713                            my($data, $size);
714    if (0) {
715                            for ( 1 .. int($hdr->{size} / $BufSize) ) {
716                                    my $r_size = $f->read(\$data, $BufSize);
717                                    die "expected $BufSize bytes read, got $r_size bytes!" if ($r_size != $BufSize);
718                                    TarWrite($fh, \$data);
719                                    $size += length($data);
720                            }
721    }
722                            my $size_left = $hdr->{size} % $BufSize;
723                            my $r_size = $f->read(\$data, $size_left);
724                            die "expected $size_left bytes last read, got $r_size bytes!" if ($r_size != $size_left);
725    
726                            TarWrite($fh, \$data);
727                            $size += length($data);
728                            TarWritePad($fh, $size);
729    
730                            $items_in_part++;
731                    }
732                    $f->close;
733                    $FileCnt++;
734                    $ByteCnt += $full_size;
735                    new_tar_part();
736            }
737      } elsif ( $hdr->{type} == BPC_FTYPE_HARDLINK ) {      } elsif ( $hdr->{type} == BPC_FTYPE_HARDLINK ) {
738          #          #
739          # Hardlink file: either write a hardlink or the complete file          # Hardlink file: either write a hardlink or the complete file
740                  # depending upon whether the linked-to file will be written          # depending upon whether the linked-to file will be written
741                  # to the archive.          # to the archive.
742          #          #
743                  # Start by reading the contents of the link.          # Start by reading the contents of the link.
744                  #          #
745          my $f = BackupPC::FileZIO->open($hdr->{fullPath}, 0, $hdr->{compress});          my $f = BackupPC::FileZIO->open($hdr->{fullPath}, 0, $hdr->{compress});
746          if ( !defined($f) ) {          if ( !defined($f) ) {
747              print(STDERR "Unable to open file $hdr->{fullPath}\n");              print(STDERR "Unable to open file $hdr->{fullPath}\n");
# Line 488  sub TarWriteFile Line 752  sub TarWriteFile
752          while ( $f->read(\$data, $BufSize) > 0 ) {          while ( $f->read(\$data, $BufSize) > 0 ) {
753              $hdr->{linkname} .= $data;              $hdr->{linkname} .= $data;
754          }          }
755                  $f->close;          $f->close;
756                  my $done = 0;          my $done = 0;
757                  my $name = $hdr->{linkname};          my $name = $hdr->{linkname};
758                  $name =~ s{^\./}{/};          $name =~ s{^\./}{/};
759                  if ( $HardLinkExtraFiles{$name} ) {          if ( $HardLinkExtraFiles{$name} ) {
760                      #              #
761                      # Target file will be or was written, so just remember              # Target file will be or was written, so just remember
762                      # the hardlink so we can dump it later.              # the hardlink so we can dump it later.
763                      #              #
764                      push(@HardLinks, $hdr);              push(@HardLinks, $hdr);
765                      $SpecialCnt++;              $SpecialCnt++;
766                  } else {          } else {
767                      #              #
768                      # Have to dump the original file.  Just call the top-level              # Have to dump the original file.  Just call the top-level
769                      # routine, so that we save the hassle of dealing with              # routine, so that we save the hassle of dealing with
770                      # mangling, merging and attributes.              # mangling, merging and attributes.
771                      #              #
772                      $HardLinkExtraFiles{$hdr->{linkname}} = 1;              $HardLinkExtraFiles{$hdr->{linkname}} = 1;
773                      archiveWrite($fh, $hdr->{linkname}, $hdr->{name});              archiveWrite($fh, $hdr->{linkname}, $hdr->{name});
774                  }          }
775      } elsif ( $hdr->{type} == BPC_FTYPE_SYMLINK ) {      } elsif ( $hdr->{type} == BPC_FTYPE_SYMLINK ) {
776          #          #
777          # Symbolic link: read the symbolic link contents into the header          # Symbolic link: read the symbolic link contents into the header

Legend:
Removed from v.156  
changed lines
  Added in v.257

  ViewVC Help
Powered by ViewVC 1.1.26