Hallo miteinander,
ich muss die Größe (in KByte) der ersten Webseite ermitteln. Sprich, wenn man eine Beispielseite "www.beispiel.de" aufruft, muss man halt die Größe aller Daten (html selbst, alle Bilder, CSS und JavaScript-Dateien) zusammen zählen, welche bei diesem Aufruf letzendlich im Internet-Browser angezeigt werden.
Die HTML-Daten lassen sich ziemlich einfach mit fopen(), fputs() und fgets() herunterladen. Mit anderen Daten habe ich Probleme und zwar:
ich kann ja zeilenweise die HTML-Datei lesen und ermitteln, ob in einer Zeile z.B. "<img src=" vorkommt und dann den Pfad zu einem Bild extrahieren und dieses Bild dann mit wget herunterladen. Na ja, die Sache ist die, dass leider es vorkommen kann, dass die Zeile umbricht und daher ich nicht wirklich den Pfad zu einem Bild o.ä. ermitteln kann.
Könnt ihr mir helfen bzw. wisst ihr vielleicht ein Beispiel, wie man das vielleicht anders realisieren kann?
Vielen Dank für die Hilfe!
P.S. Suche habe ich benutzt und leider nichts gefunden
ich muss die Größe (in KByte) der ersten Webseite ermitteln. Sprich, wenn man eine Beispielseite "www.beispiel.de" aufruft, muss man halt die Größe aller Daten (html selbst, alle Bilder, CSS und JavaScript-Dateien) zusammen zählen, welche bei diesem Aufruf letzendlich im Internet-Browser angezeigt werden.
Die HTML-Daten lassen sich ziemlich einfach mit fopen(), fputs() und fgets() herunterladen. Mit anderen Daten habe ich Probleme und zwar:
ich kann ja zeilenweise die HTML-Datei lesen und ermitteln, ob in einer Zeile z.B. "<img src=" vorkommt und dann den Pfad zu einem Bild extrahieren und dieses Bild dann mit wget herunterladen. Na ja, die Sache ist die, dass leider es vorkommen kann, dass die Zeile umbricht und daher ich nicht wirklich den Pfad zu einem Bild o.ä. ermitteln kann.
Könnt ihr mir helfen bzw. wisst ihr vielleicht ein Beispiel, wie man das vielleicht anders realisieren kann?
Vielen Dank für die Hilfe!
P.S. Suche habe ich benutzt und leider nichts gefunden
Kommentar