Backup aller Webfiles

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

  • Backup aller Webfiles

    Hallo Leute!

    Ich will alle Dateien, die sich auf meinem Server angesammelt haben, als Sicherheitskopie speichern (und auf DVD brennen), da demnächst wohl ein Serverwechsel ansteht.
    Allerdings: Besonders das Forum, mit seinen annährend 10.000 einzelnen hochgeladenen Dateien, macht mir da Probleme.
    Mit meinem FTP-Programm dauert das einfach zu lange.
    Daher suche ich ein Programm, welches wesentlich schneller die Dateien runter- (bzw. auch hoch)laden kann. Am besten Freeware.

    Ne Idee?

    :-)
    arrays sind klasse

  • #2
    Mit meinem FTP-Programm dauert das einfach zu lange.
    Daher suche ich ein Programm, welches wesentlich schneller die Dateien runter- (bzw. auch hoch)laden kann. Am besten Freeware.
    Schneller als mit FTP ? Am besten noch schneller als deine Bandbreite, oder ? Ich würde sagen, viel Spass mit dem Download via FTP. Was anderes gibt es imho nicht. Und ob jetzt da das eine FTP Tool ein bisschen schneller ist als das andere
    Alternativ könntest du, falls das dein Provider macht, das Backup herunterladen. Ist dann wenigstens schon gepackt und damit etwas kleiner. Oder du fragst den Provider an ob er dir ne BackUp CD deines Webspaces schicken kann (kostet dann aber sicherlich was)

    Gruss

    tobi
    Gutes Tutorial | PHP Manual | MySql Manual | PHP FAQ | Apache | Suchfunktion für eigene Seiten

    [color=red]"An error does not become truth by reason of multiplied propagation, nor does truth become error because nobody sees it."[/color]
    Mohandas Karamchand Gandhi (Mahatma Gandhi) (Source)

    Kommentar


    • #3
      Ich habe übrigens jetzt genauer gezählt: es sind über 24.000 Dateien, allein in meinem Forum. Wenn ich das alles mit FTP runterlade, dann sitze ich hier bis nach Ostern, nächsten Jahres

      Wenn es denn tatsächlich keine andere Lösung gibt, werde ich wohl in den sauren Apfel beißen müssen.
      arrays sind klasse

      Kommentar


      • #4
        Wenn Du SSH-Zugang zu Deinem Webspace hast, kannst Du von der Kommandozeile aus ein komprimiertes Archiv backen und das dann runterladen (bzw. auf den anderen Server übertragen).

        Auf einem Linux-Server kannst Du die Komprimierung mit dem "nohup"-Befehl anstoßen und dich dann ausloggen. Das Ganze läuft dann im Hintergrund. Oder Du fragst den Provider, ob er das für Dich macht.

        Den Download des Archivs läßt Du dann notfalls eine Nacht lang laufen. Alternativ machst Du dasselbe via FTP.... Sooo viel Daten können das ja nicht sein - oder?

        Und welches Forum generiert 24.000 Dateien? Das ist doch komisch. Oder sind das die täglichen Logfiles o.ä.?
        Zuletzt geändert von pekka; 14.04.2006, 14:35.

        Kommentar


        • #5
          Danke für den Hinweis, aber leider habe ich bei meinem jetzigen Provider keinen SSH-Zugang.
          Ich werde dann wohl den Downlaod über Nacht laufen lassen.

          Die meisten der Dateien wurden von den Foren-Usern im Laufe der Zeit als Attatchments zu den Beiträgen hochgeladen. Der Rest ergibt sich aus hochgeladenen Fotos im Album mit jeweils einer gecacheten Datei als Voschaubild. Dazu kommen dann noch die Avatare etc. und es kommen leicht über 24.000 Dateien zusammen.

          arrays sind klasse

          Kommentar

          Lädt...
          X