link click counter

Collapse
X
 
  • Filter
  • Time
  • Show
Clear All
new posts

  • link click counter

    hallo community!

    wie die überschrift vermuten lässt möchte ich mir ein kleines script basteln um angeklickte links zu zählen. ich weiß dass es dafür schon fertige tools gibt, aber ich möchte sowas selbst realisieren.

    ich hab auch schon ein mehr oder minder funktionierendes script fertig, allerdings stellen sich mir dazu noch einige fragen, auf die ich mir hier antworten erhoffe. und dann ist mir noch euere meinung dazu wichtig

    ich möchte hier keinen php-code posten sondernd vielmehr meine vorgehensweise schildern, nicht dass sich da bereits denkfehler eingeschlichen haben. die saubere umsetzung ist dann quasi teil zwei und folgt später. also los...

    alle zu zählenden links werden auf das php-script geleitet, die ziel-url wird als get-variable mit übergeben. das script macht dann folgendes:
    • es liest eine text-datei ein, in dieser stehen in jeder zeile je eine angeklickte url, dahinter die zahl der klicks (zb: 'google.de:::3'). die gesamte datei wird zwischengespeichert.
    • dann wird die textdatei neu geschrieben, unter berücksichtigung der url aus der get-variable. dabei wird zeile um zeile abgearbeitet, folgende regeln gelten dafür:
      -> wenn die aktuelle zeile nicht die ziel-url enthält wird sie unverändert geschrieben
      -> wenn die ziel-url in der aktuellen zeile auftaucht wird der klick-zähler erhöht
      -> wenn die ziel-url in der gesamten datei nicht auftaucht wird sie am ende hinzugefügt
    • zuletzt erfolgt dann eine weiterleitung zur ziel-url via header-location


    das funktioniert bereits ganz prima, allerdings habe ich bedenken das script so einzusetzen. und damit zu meinen fragen...

    a) ist es eventuell eine schlechte idee die textdatei mit chmod 777 auf dem server zu lassen? kann das gefährlich werden? kann das manipuliert und für andere zwecke ausgenutzt werden?

    b) wie viele links kann man auf diese art und weise erfassen? da die textdatei bei jedem (!) klick auf einen link neu geschrieben wird befürchte ich hier starke performance-einbußen. bei wievielen einträgen kann man davon ausgehen dass verzögerungen im unmerklichen bereich bleibt? 10? 100? 1000? mir ist natürlich bewusst dass das wohl auch auf die kapazitäten des servers ankommt, allerdings weiß ich nicht ansatzweise in welchem rahmen man sich dabei bewegt.
    falls das so in die praxis umgesetzt wird wären es wohl an die 100 links, die so erfasst werden sollen, keinesfalls jedoch mehr als 500. unsinn - oder machbar?


    und dann ist da noch meine größte sorge:

    c) was geschieht wenn zwei benutzer zeitgleich auf einen link klicken?
    macht es dabei einen unterschied ob beide auf den selben, oder ob sie auf unterschiedliche links klicken? gelangen sie dann überhaupt zur gewünschten seite?

    ich vermute dass man mit sessions, cookies und derlei methoden eine kollosion vermeiden kann, allerdings kenne ich mich damit nicht aus. gibt es noch andere wege um auch für diesen fall die funktion des scripts, in jedem fall aber die korrekte weiterleitung zur ziel-url zu garantieren?



    solange ich für diese fragen keine akzeptablen antworten parat habe werde ich das script nirgends einsetzen können, und ich, php-neuling, bin hier mit meinem latein am ende.

    vielleicht weiß ja hier der ein oder andere rat, ich bin für jede meinung, für jeden vorschlag und alles andere was mir weiterhilft dankbar.

    danke fürs lesen, euch dann noch einen schönen donnerstag,


    liebe grüße,

    sph

  • #2
    Re: link click counter

    Original geschrieben von sph
    a) ist es eventuell eine schlechte idee die textdatei mit chmod 777 auf dem server zu lassen? kann das gefährlich werden? kann das manipuliert und für andere zwecke ausgenutzt werden?
    777 ist absolut nicht nötig. Sorge dafür, dass der Owner der Datei derjenige ist, unter dem auch der Webserver läuft, dann genügt die Berechtigung 600. Aber gefährlich sollte diese Datei sowieso nicht sein. Allerdings sollte sie sich in einem von aussen nicht erreichbaren Verzeichnis liegen.
    Original geschrieben von sph
    b) wie viele links kann man auf diese art und weise erfassen? da die textdatei bei jedem (!) klick auf einen link neu geschrieben wird befürchte ich hier starke performance-einbußen. bei wievielen einträgen kann man davon ausgehen dass verzögerungen im unmerklichen bereich bleibt? 10? 100? 1000? mir ist natürlich bewusst dass das wohl auch auf die kapazitäten des servers ankommt, allerdings weiß ich nicht ansatzweise in welchem rahmen man sich dabei bewegt.
    falls das so in die praxis umgesetzt wird wären es wohl an die 100 links, die so erfasst werden sollen, keinesfalls jedoch mehr als 500. unsinn - oder machbar?
    Ich denke kaum, dass das - ein halbwegs potenter Server vorausgesetzt - bei deinen Mengen ein Problem sein sollte
    Original geschrieben von sph
    c) was geschieht wenn zwei benutzer zeitgleich auf einen link klicken?
    macht es dabei einen unterschied ob beide auf den selben, oder ob sie auf unterschiedliche links klicken? gelangen sie dann überhaupt zur gewünschten seite?
    Sie gelangen sicher zur gewünschten Seite, aber die Daten im Textfile können so gegenseitig überschrieben werden. Das lässt sich, sofern dein Server das unterstützt, mit flock() verhindern.

    Du siehst, es wäre so möglich. Ich rate dir trotzdem davon ab. Schreibe die Daten in ein DB, das ist nicht nur einfacher, sondern auch sicherer und wahrscheinlich auch schneller.
    Gruss
    H2O

    Comment


    • #3
      hallo,

      danke für deine antwort!

      Allerdings sollte sie sich in einem von aussen nicht erreichbaren Verzeichnis liegen.
      hm, das ginge natürlich und das werde ich dann wohl auch so machen - aber zum besseren verständnis: wo läge das problem wenn sie in einem webverzeichnis läge? klar, jeder könnte sie einsehen, was mir aber relativ egal wäre. was vergesse ich da?


      ...aber die Daten im Textfile können so gegenseitig überschrieben werden. Das lässt sich, sofern dein Server das unterstützt, mit flock() verhindern.

      die erklärung zu 'flock()' hab ich jetzt mangels zeit nur überflogen - und wohl deswegen auch nicht verstanden. muss ich mir also nochmal näher ansehen, danke für den hinweis!


      mir wurde bereits dazu geraten eine db zu benutzen, allerdings kenne ich mich damit gleich noch weniger aus als mit php - sozusagen garnicht. aber abgesehen von meiner unfähigkeit das zu bewerkstelligen: ich selbst habe zwar die möglichkeit mysql zu nutzen, möchte aber möglichst db-unabhängig arbeiten um das script auch auf webspace ohne db verwenden zu können.


      grüße,

      sph

      Comment


      • #4
        what the FLOCK()?

        doppelpost & push: weiter gehts...

        ja, also. ich hab mir diese flock()-funktion mal angesehen. und ich hab die beschreibungen dazu gelesen, ich hab mir tutorials zu herzen genommen und codeschnipsel zb. bei selfhtml gefunden.

        nur: ich hab flock() trotz allem nicht verstanden

        alles was ich in erfahrung bringen konnte ist unterm strich: "damit kann man dateien sperren und wieder freigeben". na spitze. ich hab mir die funktionierenden codeschnipsel mal vorgeknöpft, soweit so gut - ich bin aber nicht in der lage das jetzt irgendwie auf mein kleines script zu übertragen.

        ich würds ja gerne ausprobieren, aber ich will damit ja den (wohl eher seltenen...) fall lösen wenn zwei user gleichzeitig auf einen link klicken, siehe oben. sowas lässt sich schwer simulieren.... ich wüsste nicht wie...

        darum also hier ein paar zeilen code, in der hoffnung dass sich jemand findet, der mir erklären kann an welcher stelle was gelockt werden soll:

        PHP Code:
        $file "exits.txt";
        $url $_GET['to'];

        if (!
        preg_match("(^(http://|https://|ftp://))i"$url)){
            
        $url "http://".$url;
        }

        if ((isset(
        $url)) && (!empty($url)) && (strlen($url)>10)){    
              
              
        $readfile fopen($file"r");        
              
        $filecontent fread($readfilefilesize($file));
              
        fclose($readfile);           
              
        $fileline explode("\n"$filecontent);
              
        $lines count($fileline)-1;                                   

              
        $writefile fopen($file"w+");
              for (
        $n 0$n $lines$n++){
                  
        $entry explode(" :: "$fileline[$n]);
                  if (
        $entry[0] == $url){
                        
        $entry[1]++;
                  } else {
                        
        $newlink++;
                  }
                  
        $writeline $entry[0]." :: ".$entry[1]."\n";
                  
        fwrite($writefile$writeline);                      
              }
              if (
        $newlink $lines){
                  
        $newline $url." :: 1\n";
                  
        fwrite($writefile$newline);
              }
              
        fclose($writefile);
              
              
        header("Location:" .$url);      
              exit;       



        meine überlegungen dazu:

        -> wird das script nur einmal gestartet läuft es normal ab, es ändert die "exits.txt" und gut is.

        -> wird das script zeitgleich ein zweites mal gestartet muss es vor dem einlesen der datei "exits.txt" pausieren und warten bis die erste instanz des scripts alle schreibvorgänge beendet hat

        -> die dateisperre muss also schon vor dem einlesen der datei greifen, darüber hinaus aber auch noch aufrecht erhalten werden wenn nach dem lesen der datei das neu-schreiben durchgeführt wird (separates dateihandle)



        soweit die theorie - weiter komm ich nicht. kann mir da jemand mit dem zaunpfahl winken? oder so?


        danke & grüße,

        sph

        Comment


        • #5
          Ich begreife nicht, warum du die Datei zweimal öffnest. Aber ich mag mich jetzt nicht mit den Details deine Codes auseinadersetzen. Aber die Funtion zu testen ist sehr einfach:
          PHP Code:
          echo "Gestartet um " date("h.i.s") . "<br />";
          $file 'file.txt';
          $fh fopen($file'r+');
          flock($fhLOCK_EX);
          $inhalt fread($fhmax(filesize($file), 1));
          $inhalt .= "Der angehängte Teil des ersten Scripts";  // für 2. Version ändern
          rewind($fh);
          fwrite($fh$inhalt);
          sleep(30);                   // für 2. Version löschen
          flock($fhLOCK_UN);
          fclose($fh);
          echo 
          "Beendet um " date("h.i.s") . "<br />"
          Diesen Code speicherst du unter zwei verschiedenen Namen, wobei du beim zweiten das sleep() herausnimmst. Dann startest du zuerst die erste Version, dann direkt danach in einem zweiten Tab die zweite. Und dann vergleichst du die Resultate.
          Gruss
          H2O

          Comment


          • #6
            AH, vielen dank für das beispiel - so kann ich ja doch noch überprüfen ob und wie funktioniert was ich da versuche


            warum ich die datei zweimal öffne lässt sich leicht erklären:
            alles was ich über dieses flock() gelesen habe hat mich eigentlich nur verwirrt. hier steht zum beispiel es sei eine ganz dumme idee eine datei zum schreiben zu öffnen und sie dann zu locken, irgendwann danach hab ich das dann eben so gemacht. hat funktioniert, also hab ichs gelassen. werd ich aber noch rausstreichen, ist wohl besser - danke auch für diesen hinweis!



            schön, hoffentlich kapier ich dann endlich wie flock() funktioniert - ich glaub das "selber ausprobieren" hilft mir da ungemein

            grüße,

            sph


            nachtrag:


            danke, DANKE - ich habs! ich glaube jetzt auch zu wissen wo mein fehler beim herumprobieren mit flock() die ganze zeit lag, nämlich - genau wie im obern verlinkten artikel - beim modus von fopen()...

            nur deswegen hatte ich die datei zweimal geöffnet, dank deines scripts hab ich jetzt also _genau_ das was ich wollte - und es sollte sogar richtig funktionieren, sieht dann fertig so aus:

            PHP Code:
            $file "exits.txt";
            $url $_GET['to'];

            if (!
            preg_match("(^(http://|https://|ftp://))i"$url)){
                
            $url "http://".$url;
            }

            if ((isset(
            $url)) && (!empty($url)) && (strlen($url)>10)){                                       

                  
            $getstats fopen($file"r+");
                  
            flock($getstatsLOCK_EX);
                  
                  
            $filecontent fread($getstatsfilesize($file));
                  
            $fileline explode("\n"$filecontent);
                  
            $lines count($fileline)-1;
                  
            rewind($getstats);
                  
                  for (
            $n 0$n $lines$n++){
                      
            $entry explode(" :: "$fileline[$n]);
                      if (
            $entry[0] == $url){
                            
            $entry[1]++;
                      } else {
                            
            $newlink++;
                      }
                      
            $writeline $entry[0]." :: ".$entry[1]."\n";
                      
            fwrite($getstats$writeline);                      
                  }
                  if (
            $newlink $lines){
                      
            $newline $url." :: 1\n";
                      
            fwrite($getstats$newline);
                  }

                  
            flock($getstatsLOCK_UN);
                  
            fclose($getstats);
                  
                  
            header("Location:" .$url);      
                  exit;       


            ich hoffe ich hab da jetzt nicht noch was anderes übersehen, aber ich glaube das erfüllt seinen zweck hervorragend, das werd ich dann wohl so benutzen

            danke nochmal für die zeit & hilfe!

            Last edited by sph; 29-01-2008, 13:43.

            Comment

            Working...
            X