Wir sind nicht die einzigen bei denen es um "den Grössten" geht...
auf heise.de hats ne artikel über die Suchemaschinenen und mit welchen Zahlen sie ihre Qualität messen...
Unteranderem meinte Fast-Search den grösseren (Index) zu haben als google.
Allerdings hat darauf hin die Wachtumsrate bei google kräftig angezogen und konnte wieder den Grössten (Index) vermelden.
ok, gibt sicher schon was in der richtung, aber ich find meinen gedanken trotzdem fett: verteilte such- und überprüfbots, verteilte db, verteilte webserver, open source. das progi ist mit tcpdump verheiratet oder hat browser-, ftpclient- und andere plugins als geschwister, sodass angesurfte uri's automatisch in den hauseigenen suchmaschinenbot eingespeist werden, welcher die sache wiederum realtime an jenste andere bekannte bots weiterreicht. niemand kann zahlen, um weiter oben zu stehen in den results, niemand kann zensieren, die suchmaschine ist nie down und sie ist nie überlastet da dezentral. wär doch fett als erstes zorg-software-projekt *bg*
das ganze distributed zeugs ist von der ueberlegung her genial.
Nur: Solange wir zuhause keine anstaendige Anbindund haben, werden sie nicht wirklich funktionieren. P2P braucht zuviel von dem kleinen bisschen das ich habe.
Ich hoffe, das wird sich in Zukunft aendern.
ja es bräuchte extrabroadband. aber das wird schon kommen irgendwann. mit 5 bis 10 mbit/s beidseitig sollten solche distributed sachen voll ausgebaut drinliegen.
vor 4 jahren sass ich auf 24.4, jetzt auf 256kbit/s. hmm.. reden wir in 10 jahren nochmal drüber :|