Google scannt nur manche Seiten von mir warum?

Collapse
X
 
  • Filter
  • Time
  • Show
Clear All
new posts

  • Google scannt nur manche Seiten von mir warum?

    Hallo

    Von vorne herein, ich habe bereits zu diesem Thema gegoogelt, viel gefunden, aber nichts was meiner Webseite gleich ist.

    Zum Problem.

    Anscheinend ignoriert google die meisten Seiten meiner Hompage. Was gescannt wird, ist Startseite, Forum Startseite, Impressum, AGB, Registrierung usw...

    Beiträge aus dem Forum werden nicht gescant.

    Achtung es ist mir klar, dass solche URLs wie ?dies=dies&das=das... von Google ignoriert werden. Doch bei mir sind das eindutige Seiten, die nicht mal das ? enhatlen.

    Zum Beispiel wird das hier nie gescannt:
    http://www.2ts2.net/forum/forum1_seite3.php

    oder sowas hier auch nicht:

    http://www.2ts2.net/forum/thema_528_seite2.php

    Das sind doch eindeutige Dokumente. Jedes diser Dokumente hat folgende Head Angaben, Style und Javascript las ich weg:

    <meta http-equiv="content-type" content="text/html;charset=iso-8859-1">
    <meta name="author" content="Ceglarski Lukasz">
    <meta name="description" content="2ts2.net trainz.net der etwas andere Train Simulator Treffpunkt Mitglieder Forum Mitglieder plaudern &uuml;ber alles M&ouml;gliche.">
    <meta name="keywords" content="trainz, Startseite, durchsuchen,
    Muss, wirklich, machen, Uhrvon, ElmarFlint, Awards13">
    <meta name="robots" content="index,follow">
    <meta NAME="language" CONTENT="de">
    <meta http-equiv="Content-Script-Type" content="text/javascript">
    <meta http-equiv="Content-Style-Type" content="text/css">
    <meta name="REVISIT-AFTER" content="7 days">



    Die Keywords filter ich mir mittels PHP heraus (Wörter aus der Seite, die länger wie 5 Zeichen lang sind.

    <meta name="robots" content="index,follow"> wir in jedem Dokument abgesendet.

    Gebe ich jetzt einen Begriff ein, der zum Scanzeitpunkt auf der Hauptseite des Forums lag, bekomme ich gleich das Ergebnis. Liegt es aber einen Baum tiefer, also Threads oder Themen, die aber wie oben gezeigt verlinkt sind und existieren, ist wieder aus.

    Was soll ich tun?
    Last edited by LGC; 02-09-2005, 03:11.

  • #2
    Wie stellst du fest, dass Google die tieferen Seiten nicht besucht? Hast du dazu (fehlende) Einträge in Logs oder verläßt du dich einzig auf die Google-Ergebnisse?

    Für alles ... valide Seite produzieren, http://www.google.com/intl/en/webmasters/ lesen, ggf. 7 Tage warten.

    Comment


    • #3
      hmm,

      eigenartig ... das forum scheint größer, älter zu sein ... deine seite jedoch macht den anschein es nicht zu sein? kein pr, ab und an nen 0er, sonst n/a ...

      offenbar scheinst du _keine_ backlinks zu haben? mach dich doch mal zum thema seo schlau, ... der head-bereich einer webseite ist das letzte , um das du dich kümmern solltest. allerdings solltest du jeder seite eine eigene description geben, http://www.google.com/search?q=site:http://2ts2.net/ wirkt nicht so gut ...

      leg dir mal eine vernünftige robots.txt zu, bringt dir zwar eher was, wenn du schon gut indiziert wärst, aber seiten wie registrieren/pw vergessen müssen ja nicht unbedingt in den index ...

      wie alt ist die seite?

      du brauchst backlinks, ... soviel wie möglich. setz zum beispiel mal einen link auf deine seite in deine signatur, sie wird dann von jeden deiner posts aus verlinkt. bringt dir zwar im endeffekt nur einen backlink, aber immerhin ...

      ansonsten könntest du dich noch um die on-page-optimierung kümmern, aber wenn der bot nicht kommt, ist auch nicht wirklich wichtig.

      backlinks!
      Last edited by derHund; 02-09-2005, 11:39.
      Die Zeit hat ihre Kinder längst gefressen

      Comment


      • #4
        + google sitemaps ausprobieren

        Comment


        • #5
          stimmt, einige leute berichten, daß das ganz gut abgeht, danach.
          Die Zeit hat ihre Kinder längst gefressen

          Comment


          • #6
            yepp, google kommt bei mir 3x täglich auf jeder seite vorbei

            Comment


            • #7
              Hallo

              Also ich nutze Toolbar von google. Meine Webseite ist auch schon (steinalt) ca. knapp 3 Jahre, jedoch habe ich sie bzw. baue ich sie um. Mein Schwerpunktziel war es nicht auf Ranking Nr. 1 zu landen. Aber immerhin, wollte ich nur erzielen, dass was in meinem Forum oder auf der Webseite steht, man bei google auch finden kann.

              Leider stelle ich fest, genau die ist nicht der Fall.

              Ich habe mir dann zig Berichter aus Zig Webseiten durchgelesen. Das mit dem Linken, kann ich nicht sehr beinflussen. Aber mit der Optimierung via Url sollte es ganz gut gehen. So habe ich mir ein Forum Cache gebaut.

              Die Cahe funktioniert ganz gut, und hat für jede Seite eine eigene eindeutige Datei. Alle Seiten sind miteinander verlinkt, (garantiert), wenn google allen Verweisen folgt, wird google jede einzelne vor den Scanner bekommen.

              Das Problem ist mir aber auch nicht neu. Mit meinem alten Forum ist es eben so nicht gegangen, obwohl es ein kommerzieles war, welches mit andern HPs ganz gut von google durchforstet wurde.

              Deshalb denke ich, dass ich irgendwas tue, was google nicht so gefällt.

              Ich durchforste etlich lange das Internet nach Lösungen, und komme nicht hinter. Auch eine robot.txt habe ich schon ausprobiert. So langsam habe ich keinen Rat mehr wie die Herren das Suchgeheinis wirklich werten. Nach Inhalt? - Da fehlt einem der Glaube beinahe. Nach Links??? Ja das ist auf jedenfall eindeutig, doch dann bewirkt Google nur ein Massenspaming damit. Berühmt bedeutet noch nicht gleich guter Inhalt.

              Ich habe mir auch schon Google best Rankings angesehen. Habe auch mal in den Quelltext geschaut, was die anderen so drine haben. Kaum manchmal kein Unterschied. Auch Onlinetest (Suchmaschinenoptimierung) geben mir die Note zwischen 1 und 2. Aber Google will einfach nicht. Wahrscheinlich wertet Google meine Seite als unwichtig.

              Bei anderen Suchmaschinen werde ich Problemlos gefunden.

              Trotzdem binn ich für jeden Hinweis dankbar. Ich will ja zum Ziel kommen.

              Comment


              • #8
                Berühmt bedeutet noch nicht gleich guter Inhalt.
                doch (mit einschränkungen). das entspricht doch der eigentlichen intension des internets ... selbstregulation.

                wenn du wertvolle, wichtige, relevante, gute, aktuelle informationen anbieten kannst, werden mehr und mehr leute verweise auf deine seiten setzen. dadurch wirst du bekannter.

                backlinks wären also u.a. ein gutes maß für die wichtigkeit deiner seite. wenn da nur nicht du spammer wären.
                Die Zeit hat ihre Kinder längst gefressen

                Comment


                • #9
                  Ja das ist schon in Ordnung. Ich habe mir dazu einen Artiel durchgelesen. Mir geht es aber auch wie schon erwähnt überhaupt nicht darum auf Nr1. oder in den Top 20 aufzutsuchen. Nur wollte ich das bei Google finden, was auf meiner Webseie hinterlegt ist.

                  Ich habe zig meiner Beiträge ín google gesucht. Faktum ist ich finde nur die, die im Zeitpunkt des Cachen auf der Forum Grundseite liegen. Jetzt habe ich gestern Nacht gelesen, dass sich Google mit manchen Links schwer tut. man solle daher bestens reine Textlinks verwenden. Doch genau das tue ich ja.

                  Mit der Robot TXT kann man laut SELFHTML.ORG nur spezifisch Inhalte ausgrenzen, jedoch gibt es dieses "Allow" nicht wirklich. Oder ich habe das falsch verstanden.

                  Jetzt habe ich nochmals weiter das Forum optimiert. Ich werde versuchen, den Namen der Themen der Datei eindeutig zu tun. Vieleicht stört google das ein wenig.

                  Oder es liegt noch am broken Error, kann das sein? Weil in meinem Forum linken die Profile der User noch auf eine nicht vorhandene Datei. (Error 404).

                  Ich überlege mir, ob mir ein Index aller Seiten etwas bringt? Wenn ich einen Forenindex mit allen Themen anlege, und gezielt auf die Themen Linke. Vieleicht folgt googles Robot denen?

                  Was ich bislang noch getan habe, sind Subdomains und andere Domains, die ich ständig verlinke.

                  Ich wäre euch dankbar, wenn auch ihr noch gezielt Probleme, Lösungen und Vorschläge habt.

                  Comment


                  • #10
                    wie gesagt, google sitemap xml datei generieren und google wird fündig

                    Comment


                    • #11
                      Naja, so einfach kannst du das auch nicht sagen. Ich teste das ganze mit den Sitemaps jetzt schon seid nem guten Monat. So richtig in Schuss kommt Goolge damit aber leider auch nicht. Wenn deine Seite wenig zu bieten hat hilft die der Sitemap Service auch nicht.

                      Comment


                      • #12
                        prinzipiell geb ich dir natürlich recht, dennoch findet der google-robot alle seiten aus der sitemap-datei! ob und wo er sie listet ist natürlich eine andere sache. sie werden aber zumindest für eine indizierung durch den robot abgerufen...

                        Comment


                        • #13
                          Mit der Robot TXT kann man laut SELFHTML.ORG nur spezifisch Inhalte ausgrenzen, jedoch gibt es dieses "Allow" nicht wirklich. Oder ich habe das falsch verstanden.
                          dabei ging es mir auch nur darum, daß seiten, die niemand sehen will (o.g.), nicht unbedingt in den index müssen. und ja, allow gibt es nicht, es gibt auch keine regexp innerhalb des disallow, laß dir also dort nichts unterschieben
                          Ich überlege mir, ob mir ein Index aller Seiten etwas bringt? Wenn ich einen Forenindex mit allen Themen anlege, und gezielt auf die Themen Linke. Vieleicht folgt googles Robot denen?
                          eine sitmap kann niemals schaden, immerhin sind dort alle unterseiten verlinkt.

                          backlinks!

                          hier kannst du deine backlinks checken: http://www.domain-pop.com/ ... das tool ist zwar im mehrerer hinsicht ätzend, aber es funktioniert ganz gut.

                          ansonsten fällt mir nichts mehr groß ein, meine seiten werden immer recht schnell vollständig indiziert ... du kannst nur versuchen, alle deine seiten so gut wie möglich zu optimieren, der rest ist ...
                          Die Zeit hat ihre Kinder längst gefressen

                          Comment


                          • #14
                            Ich hab bei mir nen kleines Tracking Tool in die Seiten geschraubt um zu schauen wann und welche Seiten Google spidert.

                            http://www.dpsg-soest.de/auswertung.php

                            Man kann schön sehen das es bei der unteren Seite sehr gut funzt, aber oben eben nicht sonderlich viel zusammen läuft.

                            Comment


                            • #15
                              Also erstmal ein danke-schön!

                              Wo kann ich das bestens nachlesen mit dem "google sitemap xml"! Finde zwar einiges in google darüber, doch weis ich nicht wo man eine gescheite Eklärung findet.

                              Habe das leider noch nicht probiert, wäre mir aber einen Versuch wert.

                              Zu meinen Backlinks. Das ist ein ganzer hufen. Auf jeder Forumseite ca. 8 - 13 Stück. Üver Yahoo, Msn, Fireball, T-online, nur über Google 0

                              Ich denke das kann echt nicht wahr sein, und dachte eine Suchmaschine sucht soviel wie möglich. Cih nutze hauptsächlich schon seit langem google nicht mehr, da ich seit einem Jahr über Suchergebnisse nicht mehr zu frieden binn. Aber die meisten nuzten diese. Mir bringt also nichts darauf zu pfeifen ws sich "go ogle" so einfällt. Ich denke also muss daran leigen, dass ich durch irgend einen Filter nicht gescannt werde. Irgendwas gefällt dem Robot nicht, und löst einen Filter aus. Anders kann ich mir das ganze nach hunderten Versuchen nicht erklären.

                              Gerade gestern hat google mich mittelshttp://66.249.93.104/search?q=cache:mh0Di9OjSwYJ:2ts2.net/+&hl=de gescant. Doch wieder war sich der Robot zu fein, um den Links zu folgen

                              Vieleicht liegt der Filter in den Keywords? Kann das mal einer von euch prüfen, ob das sein könnte. Vileicht sieht google das als Spam an?

                              Jetzt laufen 3 Domains und 8 Subdomins bereits über diese Webseite. Jede einzelne Seite dieser Seiten linkt auf jeweils diese anderen Domins / Subdomins. Das ist mein Versuch, meine Backlinks in die Höhe zu steigen.

                              Ich nutze den Professionellen Strato eintrageservice, da ich dort Serverkunde bin. Dort werden die Domins / Subdomains in zig Suchmschinen eingertagen. Yahoo, T-com, fireball, Lycos, Web.de habe alle schon geschaltet und gefunden. Nur die Herren von Google und Co sollten erst mal den eigenen Filter gründlich überarbeiten.

                              Es klappt bei jedem, also sollte es bei mir auch funktionieren. Muss also ein Filter verantwortlich sein.

                              Ich galube ich brauche eine Beruhigungstablette, oder schreibe mal Google warum meine Seiten nicht gescant werden.

                              Comment

                              Working...
                              X