Hallo zusammen,
vorab: ich bin nicht auf der Suche nach einem fertigen Script,
sondern nur nach einem Lösungsansatz. Vielen Dank vorab.
Ich versuche ein Rechnungsarchiv zu verwalten, in welchem sich
derzeit ungefähr 800.000 Dateien befinden. Dieses Archiv wird täglich
weiter befüllt und die Dateien innerhalb dieses Archivs dürfen nicht
verändert, verschoben, umbenannt etc. werden, da das Warenwirtschafts-
System diese Dateien sonst nicht mehr findet und/oder akzeptiert.
Die Namensgebung der Dateien erfolgt (leider) per Zufallsgenerator.
Zudem ist das Datum der Datei nicht ausschlaggebend, da die Dateien
bei Nachkalkulationen gelöscht und neu erstellt werden können.
Der Datei-Name bleibt in diesem Fall aber erhalten.
Ich will aber diese Dateien auswerten und deren Inhalt sowie
Auswertung in einer SQL Datenbank abspeichern. Somit muss
ich irgendwie diese Dateien "markieren" als verarbeitet damit
das Script (Cronjob, der immer 1000 Dateien auswertet) beim
nächsten Lauf diese Dateien überspringt.
Meine Ideen scheitern leider an der Menge der Dateien.
Wie würdet ihr an eine solche Datenmenge herangehen?
Danke im Voraus
Gruß
btec
vorab: ich bin nicht auf der Suche nach einem fertigen Script,
sondern nur nach einem Lösungsansatz. Vielen Dank vorab.
Ich versuche ein Rechnungsarchiv zu verwalten, in welchem sich
derzeit ungefähr 800.000 Dateien befinden. Dieses Archiv wird täglich
weiter befüllt und die Dateien innerhalb dieses Archivs dürfen nicht
verändert, verschoben, umbenannt etc. werden, da das Warenwirtschafts-
System diese Dateien sonst nicht mehr findet und/oder akzeptiert.
Die Namensgebung der Dateien erfolgt (leider) per Zufallsgenerator.
Zudem ist das Datum der Datei nicht ausschlaggebend, da die Dateien
bei Nachkalkulationen gelöscht und neu erstellt werden können.
Der Datei-Name bleibt in diesem Fall aber erhalten.
Ich will aber diese Dateien auswerten und deren Inhalt sowie
Auswertung in einer SQL Datenbank abspeichern. Somit muss
ich irgendwie diese Dateien "markieren" als verarbeitet damit
das Script (Cronjob, der immer 1000 Dateien auswertet) beim
nächsten Lauf diese Dateien überspringt.
Meine Ideen scheitern leider an der Menge der Dateien.
Wie würdet ihr an eine solche Datenmenge herangehen?
Danke im Voraus
Gruß
btec
Kommentar