ilch Forum » Allgemein » Plauder Ecke » seiten indexiere oder wie .. ?

Geschlossen
  1. #1
    User Pic
    sinan Mitglied
    Registriert seit
    28.10.2007
    Beiträge
    85
    Beitragswertungen
    0 Beitragspunkte
    kann mir mal jemand kurz erklären wie das funktioniert, dass man andere seiten indexiert ? so schreibt es zumindest der admin dieser seite in inem forum ich glaub bei guli wars. wie ist sowas möglich. wie kommt der typ an diese unmengen an daten ddl-search.biz/Stats/ ?. der sitzt doch nicht den gazen tag am rechner und speist iwelche links in seine datenbank ein.... kann mir jemand "kurz" erleutern wie sowas technisch möglich ist.

    mfg

    betroffene Homepage: ddl-search.biz/
    0 Mitglieder finden den Beitrag gut.
  2. #2
    User Pic
    Son!c Hall Of Fame
    Registriert seit
    14.09.2006
    Beiträge
    3.766
    Beitragswertungen
    5 Beitragspunkte
    was soll indexiert sein?

    naja, aufjedenfall kann man das mit php und sql machen ... einfach per php eine sql abfrage machen wieviel daten schon dort und hier hochgeladen worden sind und da eben wiedergeben ^^
    is eigentlich recht simpel - denk ich
    Nimm das Leben nicht zu ernst, du kommst sowieso nicht lebend raus.
    0 Mitglieder finden den Beitrag gut.
  3. #3
    User Pic
    assault Hall Of Fame
    Registriert seit
    03.11.2006
    Beiträge
    2.925
    Beitragswertungen
    1 Beitragspunkte
    mit php kann man auch Seitenanalysen schreiben...
    für ein System einer Seite (die meisten dl-Seiten haben das Underground-CMS), kann man auch einen Analyse-Algorythmus schreiben.
    Das ist so wie bei ilch:
    Alle Downloads werden unter seite.tld/index.php?downloads zu finden sein.
    Dann werden Dateien unter ?downloads-show-[ID] zu finden sein.
    und wenn dann noch im html-code sowas wie id="dl-description" steht, dann wird das natürlich auch noch leichter auslesbar.
    Wahrscheinlich könnte man auch andere Algorythmen machen, die dynamischer sind...

    Die Daten werden dann in eine Relation indexiert, weil es einfach zu viel Prozessorleistung verbrauchen würde, wenn man bei jeder Suche alle seiten analysieren muss.
    (das ist so wie beim Dateisystem einer Festplatte)
    wahrscheinlich wird der Algorythmus per cronjob jede woche ausgeführt.
    0 Mitglieder finden den Beitrag gut.
  4. #4
    User Pic
    sinan Mitglied
    Registriert seit
    28.10.2007
    Beiträge
    85
    Beitragswertungen
    0 Beitragspunkte
    hat jemand hier erfahrung mit solch einem script oder kannmir jemand irgendein script in dieser art empfehlen. würde mich dafür interessieren
    0 Mitglieder finden den Beitrag gut.
  5. #5
    User Pic
    sinan Mitglied
    Registriert seit
    28.10.2007
    Beiträge
    85
    Beitragswertungen
    0 Beitragspunkte
    ich habe jetzt das ausprobiert aber das funktioner nicht wirklich.es wird nichts in die datenbank übergeben.

    
    <?php
    
    // datenbankverbindung //
    
    ?>
    <?php
    function getcontents($html){
    
    
    $html = file_get_contents('http://www.example.com');
    
          $sql = "INSERT INTO typ SET seite = '$html'";
          //echo "$sql";
          $rs = mysql_query($sql);
          return $rs;
    
    }
    getcontents($html);
    
    
    ?>



    Zuletzt modifiziert von sinan am 28.09.2008 - 13:10:14
    0 Mitglieder finden den Beitrag gut.
  6. #6
    User Pic
    Ithron Hall Of Fame
    Registriert seit
    21.01.2006
    Beiträge
    2.659
    Beitragswertungen
    24 Beitragspunkte
    du musst auch erstmal das file öffnen..
    ZitatZitat geschrieben von loW

    Ja ich habs gesehen und wenn ichs kostenlos bekomm dann zahl ich doch nix dafür oder?
    0 Mitglieder finden den Beitrag gut.
Geschlossen

Zurück zu Plauder Ecke

Optionen: Bei einer Antwort zu diesem Thema eine eMail erhalten