Internet Archive korrigiert neun Mio. fehlerhafte Wikipedia-Links- Freiwillige und Software haben drei Jahre lang Einträge überarbeitet

Fehlersuche: Wikipedia ist nun wieder zuverlässiger (Foto: blog.archive.org)
Fehlersuche: Wikipedia ist nun wieder zuverlässiger (Foto: blog.archive.org)

San Francisco, 04.10.18 – Das Internet Archive http://archive.org , eine Non-Profit-Bibliothek mit Millionen von frei zugänglichen Webinhalten wie Büchern, Videos oder Websites, hat es geschafft, insgesamt neun Mio. fehlerhafte Verlinkungen in der Online-Enzyklopädie Wikipedia http://wikipedia.org zu korrigieren…

Damit Nutzer dort nicht mehr ständig mit der Meldung „Fehler 404 Page not found“ genervt werden, wenn sie auf ältere, nicht mehr aktive Links klicken, haben unzählige Freiwillige in Kooperation mit einer speziellen Software insgesamt drei Jahre lang 22 verschiedene Wikipedia-Ausgaben durchforstet und überarbeitet.Web als „sehr fragiler Ort“

„Wir beim Internet Archive haben uns das Ziel gesetzt, ein besseres und verlässlicheres Internet zu erschaffen“, erklärt Mark Graham, einer der freiwilligen Mitarbeiter der Non-Profit-Bibliothek via Blogmeldung. Nun sei man diesem Ziel einen gravierenden Schritt nähergekommen. „Es freut uns sehr, dass wir vermelden können, dass neun Mio. vorher nicht mehr aktive Links auf Wikipedia jetzt wieder funktionieren“, betont Graham. Die betroffenen Verlinkungen hat man nämlich einfach auf alternative Versionen von Webseiten umgeleitet, die von der hauseigenen „Wayback Machine“ archiviert worden sind.

„Mehr als fünf Jahre lang hat das Internet Archive fast jede URL archiviert, auf die in beinahe 300 Wikipedia-Seiten referenziert wird“, betont der Experte. Doch das Web sei nun einmal ein „sehr fragiler Ort“, denn Unternehmen, Regierungen, Bildungseinrichtungen, Organisationen und Individuen würden immer wieder Websites abschalten oder unter neuen Adressen onlinestellen. „Das führt dann dazu, dass Links plötzlich nicht mehr funktionieren. Mithilfe unserer Wayback Machine, in der mehr als 338 Mrd. Seiten erfasst sind, konnten wir dieses Problem nun zumindest für eine der wichtigsten Wissensquellen im Netz lösen“, so Graham.

Eigene Software entwickelt

Um möglichst viele sogenannte „broken links“ in Wikipedia-Einträgen aufspüren zu können, hat Maximilian Doerr, ein langjähriger Freiwilliger bei der Online-Enzyklopädie, der auch als Berater beim Internet Archive fungiert, eine eigene Software namens „IABot“ entwickelt. Diese hat zunächst 22 verschiedene Wikipedia-Ausgaben nach fehlerhaften Verlinkungen durchsucht. Wenn dabei ein 404-Fehler gefunden wurde, wechselte sie automatisch in die Datenbank des Internet Archive, um eine archivierte Version der eigentlich nicht mehr verfügbaren Seite zu finden und diese dann im entsprechenden Eintrag zu verlinken.

„Auch wenn das aktuelle Projekt ein voller Erfolg war, ist das noch lange nicht das Ende. Wir werden unsere Anstrengung in Bezug auf die Kontrolle und die Verbesserung von Wikipedia-Seiten in Zukunft noch weiter verstärken und auch an der Geschwindigkeit arbeiten, mit der wir Fehler finden und ausbessern können“, meint Graham.

Aussender: pressetext, Markus Steiner
Redaktion: Torben Gösch