Hallo Leute!
Ich habe folgende Absicht: Eine Datei in eine Variable schreiben und zuvor auf Existenz prüfen.
Soweit kein Ding. Ich prüfe mittels fsockopen ob der Server überhaupt reagiert. Wenn das ok ist, prüfe ich ob die Datei auf dem Server erreichbar ist (fopen) und ob sie meinen Dateigrößenlimits entspricht.
Danach pumpe ich den Inhalt mittels file_get_contents() in eine Variable.
Das ganz funktioniert wunderbar. Da es 200 Dateien in einem Script/Schleife sind, dauert es zwar etwas, aber es ist machbar. Ich wüsste auch nicht, wie ich sonst die Dateien alle verarbeiten söllte, als in einer einzigen Schleife.
Das Problem: Einige Server sind erreichbar, reagieren aber derartig langsam, dass mein Script über die nun schon höher gesetzten MySQL-Timeouts kommt. Mitunter läuft so ein Script Dank ignore_user_abort(true) (Cronjob.de-Pflicht) bis es von irgendeinem Timeout nach Stunden gekillt wird. Wenn das mehrmals passiert, und das tut es, da die Dateien alle 5 Minuten verarbeitet werden, häuft sich schnell ein Berg von Prozessen an und mein Server macht auf Kurz oder Lang die Biege.
Kennt daher jemand eine Lösung, wie ich diese "Brems-Dateien" abfangen kann? Das ist ein wirkliches Problem, weil ich nicht weiß wie ich vorher die Server als langsam erkenne, wenn sie nicht reagieren, aber dennoch erreichbar sind. Und wenn das Script läuft, dann läuft es. Ich könnte es auch beenden lassen, aber dann komme ich nicht an die Folgedateien.
Und die Notlösung beim Timeout noch die File-ID einzutragen und das Script danach HINTER dieser Datei zu starten wäre zwar möglich, aber zweite Wahl. Wie gesagt, vielleich hat ja jemand Ansätze.
Grüße
Ich habe folgende Absicht: Eine Datei in eine Variable schreiben und zuvor auf Existenz prüfen.
Soweit kein Ding. Ich prüfe mittels fsockopen ob der Server überhaupt reagiert. Wenn das ok ist, prüfe ich ob die Datei auf dem Server erreichbar ist (fopen) und ob sie meinen Dateigrößenlimits entspricht.
Danach pumpe ich den Inhalt mittels file_get_contents() in eine Variable.
Das ganz funktioniert wunderbar. Da es 200 Dateien in einem Script/Schleife sind, dauert es zwar etwas, aber es ist machbar. Ich wüsste auch nicht, wie ich sonst die Dateien alle verarbeiten söllte, als in einer einzigen Schleife.
Das Problem: Einige Server sind erreichbar, reagieren aber derartig langsam, dass mein Script über die nun schon höher gesetzten MySQL-Timeouts kommt. Mitunter läuft so ein Script Dank ignore_user_abort(true) (Cronjob.de-Pflicht) bis es von irgendeinem Timeout nach Stunden gekillt wird. Wenn das mehrmals passiert, und das tut es, da die Dateien alle 5 Minuten verarbeitet werden, häuft sich schnell ein Berg von Prozessen an und mein Server macht auf Kurz oder Lang die Biege.
Kennt daher jemand eine Lösung, wie ich diese "Brems-Dateien" abfangen kann? Das ist ein wirkliches Problem, weil ich nicht weiß wie ich vorher die Server als langsam erkenne, wenn sie nicht reagieren, aber dennoch erreichbar sind. Und wenn das Script läuft, dann läuft es. Ich könnte es auch beenden lassen, aber dann komme ich nicht an die Folgedateien.
Und die Notlösung beim Timeout noch die File-ID einzutragen und das Script danach HINTER dieser Datei zu starten wäre zwar möglich, aber zweite Wahl. Wie gesagt, vielleich hat ja jemand Ansätze.
Grüße
Kommentar