Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die digitale Landschaft ist einem stetigen Wandel unterworfen, insbesondere durch die rasante Entwicklung künstlicher Intelligenz. Eine aktuelle Entwicklung, die weitreichende Implikationen für die Integrität und Nachhaltigkeit digitaler Informationsquellen haben könnte, ist die zunehmende Raffinesse, mit der Bot-Traffic menschliche Nutzeraktivitäten imitiert. Dies wird am Beispiel der Online-Enzyklopädie Wikipedia besonders deutlich.
Die Wikimedia Foundation, die Organisation hinter Wikipedia, hat kürzlich ein Update ihrer Bot-Erkennungssysteme implementiert. Diese Neuerung führte zu einer Neubewertung der Zugriffsdaten der letzten Monate und offenbarte ein bisher unterschätztes Ausmaß an automatisierten Zugriffen. Es stellte sich heraus, dass ein erheblicher Teil des Traffics, der ursprünglich menschlichen Besuchern zugeordnet wurde, tatsächlich von Bots generiert wurde. Diese Bots sind darauf spezialisiert, Erkennungssysteme zu umgehen und menschliches Surfverhalten nachzuahmen.
Marshall Miller von der Wikimedia Foundation berichtet in einem Blogpost, dass nach der Anpassung der Erkennungssysteme ein Großteil der in den Monaten Mai und Juni verzeichneten erhöhten Zugriffszahlen auf automatisierte Quellen zurückgeführt werden konnte. Eine erneute Auswertung der Daten von März bis August zeigte, dass massenhaft Bots auf Wikipedia zugriffen, deren Verhalten darauf ausgelegt war, als menschliche Besucher zu erscheinen. Ein signifikanter Anteil dieser zusätzlichen Zugriffe stammte aus Brasilien.
Die primäre Funktion vieler dieser Bots besteht im Scraping von Wikipedia-Artikeln. Hierbei werden Inhalte automatisiert abgerufen und gespeichert. Diese gesammelten Daten dienen häufig als Trainingsmaterial für große Sprachmodelle (LLMs) sowie für Crawler von Suchmaschinen wie Google. Bereits im vergangenen Jahr hatte die Wikimedia Foundation KI-Scraper für einen drastischen Anstieg des Bandbreitenverbrauchs bei Multimedia-Downloads verantwortlich gemacht. Die Bandbreitennutzung durch Bots ist seit Januar 2024 um 50 % gestiegen, wobei Scraper 65 % des teuren Datenverkehrs in den Kernrechenzentren verursachen, obwohl sie nur 35 % der gesamten Seitenaufrufe ausmachen.
Diese Entwicklung stellt eine Ironie dar: Die LLMs, die auf Wikipedia-Inhalten trainiert werden, liefern nun oft direkte Antworten auf Benutzeranfragen, ohne dass ein Klick zur ursprünglichen Quelle erforderlich ist. Eine Studie des Pew Research Center ergab, dass nur 1 % der Nutzer von Googles KI-Zusammenfassungen zu den Quellseiten weiterklicken. Dies führt dazu, dass Wikipedia zwar indirekt zur Informationsvermittlung beiträgt, aber die direkten menschlichen Besucherzahlen sinken.
Parallel zur Zunahme des Bot-Traffics verzeichnete Wikipedia einen Rückgang der menschlichen Besucherzahlen um etwa acht Prozent im Vergleich zu denselben Monaten des Vorjahres 2024. Dieser Rückgang überrascht die Verantwortlichen bei Wikipedia nicht, da er den allgemeinen Trend zur Informationsbeschaffung über LLMs, Suchmaschinen und soziale Medien widerspiegelt. Insbesondere jüngere Nutzer wenden sich zunehmend Plattformen wie YouTube und TikTok für Informationen zu.
Dieser Trend wird zunehmend zu einer Belastung für Wikipedia. Die Plattform finanziert sich durch Spenden und lebt vom ehrenamtlichen Engagement von Helfern, die Artikel verfassen, aktualisieren und korrigieren. Ein Rückgang der menschlichen Besucher kann zu weniger Spenden und einem schrumpfenden Pool an Freiwilligen führen. Obwohl die Wikimedia Foundation LLMs, Suchmaschinen und soziale Plattformen als willkommene zusätzliche Informationskanäle betrachtet, appelliert sie an deren Betreiber, ihr Publikum häufiger zu einem Besuch bei Wikipedia zu ermutigen. Nur so könne die Grundlage für qualitativ hochwertige Informationen gesichert werden, die vielfach auch auf diesen Kanälen genutzt werden.
Die Situation wirft Fragen zur Nachhaltigkeit und Integrität von Online-Wissensquellen auf. Die Offenheit von Wikipedia, die es zu einer unverzichtbaren Ressource gemacht hat, bedroht nun paradoxerweise sein Überlebensmodell. Das Prinzip, dass Zitationen zu Traffic führen und Traffic wiederum Freiwillige und Spender anzieht, wird durch KI-Antworten unterbrochen, die Attribution ohne direkten Besuch liefern.
Die Stiftung experimentiert mit der Bereitstellung von Wikipedia-Inhalten auf Plattformen wie TikTok, YouTube, Roblox und Instagram, um jüngere Zielgruppen zu erreichen. Doch das Lehren, Wikipedia-Inhalte überall außer auf Wikipedia.org zu konsumieren, löst das Nachhaltigkeitsproblem nicht, sondern könnte es verschärfen. Die Ingenieure der Stiftung stellten fest, dass 65 % des teuersten Traffics von Bots stammt, die obskure Seiten und Massen-Downloads anfordern, die nicht effizient zwischengespeichert werden können und somit überproportional viele Ressourcen verbrauchen.
Die Wikimedia Foundation betont, dass Wikipedia weltweit weiterhin als neutrale, genaue Informationsquelle hochgeschätzt wird. Es bleibt jedoch unklar, ob dieses Vertrauen in Traffic umgewandelt wird, wenn Nutzer das Wissen von Wikipedia erhalten, ohne die Plattform direkt zu besuchen. Die downstream-Effekte könnten einen unerwünschten Kreislauf schaffen: Weniger Besucher führen zu einer Erosion der Freiwilligenbasis, was wiederum die Aktualisierung und Qualität der Inhalte verlangsamt. Dies könnte letztlich die Qualität der Trainingsdaten für die KI-Modelle mindern, die von Wikipedia abhängig sind und ursprünglich dazu beitrugen, Nutzer von der Plattform wegzuziehen.
Die Entwicklung effektiver Detektionsmethoden für LLM-gesteuerte Bots ist entscheidend. Klassische Bot-Erkennungsmethoden erweisen sich oft als unzureichend, während spezialisierte KI-Textklassifikatoren in kontrollierten Laborbedingungen Potenzial zeigen, jedoch im Feld noch vor Herausforderungen stehen, insbesondere bei kurzen Texten und einer hohen Rate an falsch-positiven Ergebnissen.
Die Zukunft digitaler Wissensvermittlung wird maßgeblich davon abhängen, wie Plattformen wie Wikipedia auf diese tiefgreifenden technologischen und sozialen Veränderungen reagieren. Es ist eine Gratwanderung zwischen der Adaption neuer Technologien und der Bewahrung der Kernprinzipien, die ihre Glaubwürdigkeit und Relevanz ausmachen.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen