Murphy`s Importanst LAWS
Jede Lösung bringt nur neue Probleme
Das Fluchen ist die einzige Sprache, die jeder Programmierer beherrscht.
In jedem kleinen Problem steckt ein großes, das gern raus moechte.
... also ich sehe da keine großen Verbesserungen.
Da Google die Seiten ja analysieren/überprüfen muss, wird der Crawler doch vorbei kommen müssen.
Das jetztige System funzt IMO ganz gut: anmelden warten bis der Crawler vorbei kommt, und ihm mit dem Meta-tag "revisit-after" sagen wann er wieder vorbeikommen soll.
.. denn die Folge der neuen Idee ist doch nur das Gegenteil des Erwünschten:
Die "großen" Seiten schicken ihre Sitemaps per Script in den gewünschten Abständen (egal ob sich was geändert hat oder nicht) und die Kleinen (die ohne Scriptkenntnisse, Einsteiger, etc) schicken gar keine Sitemaps, da sie nicht wissen was es ist, oder sie zu faul sind.
=> die Großen werden wie bisher gespidert, und die kleinen gar nicht mehr (von einer weiterhin willkürlichen Spiderung abgesehen)
... also was
[COLOR=royalblue]Ein großes DANKE an alle, die sich auf selbstlose Weise im Forum einbringen.[/COLOR]
[COLOR=silver]btw: REAL PROGRAMMERs aren't afraid to use GOTOs![/COLOR]
[color=indigo]Etwas ernster, aber auch nicht weiter tragisch, sieht die Situation bei Software-Patenten aus. Software-Patente sind eine amerikanische Erfindung und stehen auf dem selben Blatt wie genveränderte Babynahrung, die im Supermarkt nicht mehr als solche gekennzeichnet werden soll, um die Hersteller nicht gegenüber denen natürlicher Produkte zu diskriminieren ...[/color]
(from here)
Original geschrieben von Payne_of_Death Jedoch ist das wiederrum ein krasser Gegensatz zur z.B. robots.txt, die die Searchengine bei entsprechenden Verzeichnissen aussperren soll.....
Und hier wird es denke ich keine Einschränkung geben....
quark.
in dieser sitemap gibst du als seitenbetreiber doch selber an, welche seiten der bot sich anschauen soll.
Original geschrieben von Meillo ... also ich sehe da keine großen Verbesserungen.
Da Google die Seiten ja analysieren/überprüfen muss, wird der Crawler doch vorbei kommen müssen.
das ist vor allem für seiten gedacht, bei denen sich die inhalte oft ändern - ggf. auch unter dem gleichen URL. newsseiten etc.
wenn da der spider jeden tag einmal vorbeikommen soll, erzeugt das bei den inhalten, die sich nicht geändert haben, unnötigen traffic.
also lieferst du selber google eine sitemap, in der du angibst was neu ist bzw. zu welchem datum zuletzt geändert wurde. dann brauch der bot sich die sachen, die sich seite seinem letzten besuch nicht geändert haben, nicht erneut ansehen - also eindeutig eine trafficersparnis.
I don't believe in rebirth. Actually, I never did in my whole lives.
Murphy`s Importanst LAWS
Jede Lösung bringt nur neue Probleme
Das Fluchen ist die einzige Sprache, die jeder Programmierer beherrscht.
In jedem kleinen Problem steckt ein großes, das gern raus moechte.
Original geschrieben von wahsaga
wenn da der spider jeden tag einmal vorbeikommen soll, erzeugt das bei den inhalten, die sich nicht geändert haben, unnötigen traffic.
ok, da gebe ich dir recht
[COLOR=royalblue]Ein großes DANKE an alle, die sich auf selbstlose Weise im Forum einbringen.[/COLOR]
[COLOR=silver]btw: REAL PROGRAMMERs aren't afraid to use GOTOs![/COLOR]
[color=indigo]Etwas ernster, aber auch nicht weiter tragisch, sieht die Situation bei Software-Patenten aus. Software-Patente sind eine amerikanische Erfindung und stehen auf dem selben Blatt wie genveränderte Babynahrung, die im Supermarkt nicht mehr als solche gekennzeichnet werden soll, um die Hersteller nicht gegenüber denen natürlicher Produkte zu diskriminieren ...[/color]
(from here)
Kommentar