Willkommen bei WCM
Um alle Funktionen dieser Website nutzen zu können müssen Sie sich Einloggen oder Registrieren. Die Registrierung ist unverbindlich und dauert nur einen Moment.
Network & Solutions
WWW: Searchengines überfordert
Veröffentlicht am 28.03.2001 23:00:00
Und zwar hoffnungslos überfordert. Täglich kommen unzählige Seiten hinzu und wollen natürlich erfasst werden, damit Besucher, die ja nicht zuletzt auch Geld durch Views bringen, sie auch ja finden. Doch bei geschätzten 550 Milliarden Websiten weltweit, ist dies so nicht mehr verwaltbar. Somit muss man um Erfolg zu haben, wenn man etwas abseits der meist genutzten Suchbegriffe wie Sex und MP3 sucht, zu mehreren Searchengines und Metacrawlern greifen. Denn auch Google und Altavista haben nicht einmal 1 Prozent erfasst. Angesichts dieser Menge kein Wunder, doch es wird in Zukunft sicherlich auch nicht weniger werden. So müssen "Agenten", Programme die das Web durchforsten und Seiten für die Searchengine sammeln, wesentlich intelligenter werden. Denn durch dynamisch generierte Websites, wie sie nun immer stärker auftreten, kann es passieren, dass die Agenten durch die Verlinkung ständig im Kreis laufen und man somit erst recht wieder manuell eingreifen muss.
Wenn man in sehr spezialisierten Bereichen sucht, findet man häufig nicht genau, dass was man eigentlich möchte. Deswegen bilden sich nun immer stärker kostenpflichtige Suchdienste. Ich hoffe, dass dieser Trend nicht so weitergeht, denn Informationen sollten meiner Meinung nach frei zugänglich sein.
Veröffentlicht am 28.03.2001 23:00:00
Und zwar hoffnungslos überfordert. Täglich kommen unzählige Seiten hinzu und wollen natürlich erfasst werden, damit Besucher, die ja nicht zuletzt auch Geld durch Views bringen, sie auch ja finden. Doch bei geschätzten 550 Milliarden Websiten weltweit, ist dies so nicht mehr verwaltbar. Somit muss man um Erfolg zu haben, wenn man etwas abseits der meist genutzten Suchbegriffe wie Sex und MP3 sucht, zu mehreren Searchengines und Metacrawlern greifen. Denn auch Google und Altavista haben nicht einmal 1 Prozent erfasst. Angesichts dieser Menge kein Wunder, doch es wird in Zukunft sicherlich auch nicht weniger werden. So müssen "Agenten", Programme die das Web durchforsten und Seiten für die Searchengine sammeln, wesentlich intelligenter werden. Denn durch dynamisch generierte Websites, wie sie nun immer stärker auftreten, kann es passieren, dass die Agenten durch die Verlinkung ständig im Kreis laufen und man somit erst recht wieder manuell eingreifen muss.
Wenn man in sehr spezialisierten Bereichen sucht, findet man häufig nicht genau, dass was man eigentlich möchte. Deswegen bilden sich nun immer stärker kostenpflichtige Suchdienste. Ich hoffe, dass dieser Trend nicht so weitergeht, denn Informationen sollten meiner Meinung nach frei zugänglich sein.
« Mitsubishi: Low-Power-RAM · WWW: Searchengines überfordert
· Die etwas andere Jukebox »