KI für Ihr Unternehmen – Jetzt Demo buchen

Analyse der Quellenqualität in Googles KI-gestützten Gesundheitsübersichten

Kategorien:
No items found.
Freigegeben:
January 26, 2026

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren

    Das Wichtigste in Kürze

    • Googles AI Overviews nutzen bei Gesundheitsfragen häufig YouTube als Quelle, noch vor medizinischen Fachportalen.
    • Eine Studie von SE Ranking analysierte über 50.000 gesundheitsbezogene Suchanfragen in Deutschland.
    • Über 65 % der zitierten Quellen in AI Overviews stammen aus "weniger verlässlichen" Kategorien.
    • Staatliche Gesundheitsportale und wissenschaftliche Fachpublikationen machen nur einen geringen Anteil der Quellen aus.
    • Die Detailtiefe der KI-Antworten kann irreführend sein, und es gab bereits Fälle fehlerhafter medizinischer Angaben.
    • Trotz der strukturellen Probleme entfernen Google und OpenAI nur selektiv problematische AI Overviews oder führen spezialisierte Modi ein.

    Googles KI-Übersichten in der Medizin: Eine Analyse der Quellenlage

    Seit der Einführung der sogenannten "AI Overviews" im Frühjahr 2025 in Deutschland hat Google seine Suchergebnisse um KI-generierte Zusammenfassungen erweitert. Diese basieren auf dem Gemini-Modell und sollen Nutzern prägnante Informationen zu einer Vielzahl von Themen liefern. Besonders im sensiblen Bereich der Gesundheitsfragen, wo fast sechs von zehn Menschen in Deutschland Google für die Recherche von Symptomen, Diagnosen und Therapien nutzen, werfen die verwendeten Quellen und die daraus resultierende Qualität der Antworten wichtige Fragen auf.

    Die Rolle von YouTube als Informationsquelle

    Eine von SE Ranking im Dezember 2025 durchgeführte Studie, die über 50.000 gesundheitsbezogene Suchanfragen in Deutschland analysierte, beleuchtet die Präferenzen der KI bei der Quellenauswahl. Die Ergebnisse zeigen, dass YouTube die am häufigsten zitierte Domain in Googles AI Overviews ist. Mit 4,43 Prozent aller Quellenverweise übertrifft die Videoplattform, die ebenfalls zu Google gehört, damit jede offizielle Gesundheitsbehörde oder ärztliche Institution.

    Dieser Befund ist bemerkenswert, da YouTube als offene Plattform Inhalte ohne fachliche Prüfung zulässt. Im Gegensatz dazu werden etablierte medizinische Nachschlagewerke wie MSD Manuals, die Deutsche Herzstiftung oder die Stiftung Gesundheitswissen deutlich seltener herangezogen.

    Strukturelle Schwächen bei der Quellenauswahl

    Die Studie identifizierte weitere signifikante Muster in der Quellennutzung der AI Overviews:

    • Dominanz weniger verlässlicher Quellen: Über 65 % der zitierten Quellen stammen aus Kategorien, die als "weniger verlässlich" eingestuft werden, darunter kommerzielle Websites, nicht zertifizierte Informationsportale und nutzergenerierte Inhalte. Nur etwa 34 % entfallen auf "höher verlässliche" Kategorien wie medizinische Einrichtungen, staatliche Institutionen oder wissenschaftliche Publikationen.
    • Geringer Anteil staatlicher und wissenschaftlicher Quellen: Staatliche Gesundheitsportale und internationale staatliche Einrichtungen machen zusammen weniger als ein Prozent aller Zitationen aus. Wissenschaftliche Fachpublikationen und medizinische Journale sind mit lediglich 0,48 % der Quellen ebenfalls stark unterrepräsentiert.
    • Konzentration auf wenige Domains: Die zehn am häufigsten zitierten Domains vereinen fast 20 % aller Quellenverweise auf sich, und die Top 100 Domains decken rund 46 % der gesamten Quellenbasis ab.

    Diese Konzentration auf reichweitenstarke Plattformen und die geringe Berücksichtigung evidenzbasierter medizinischer Quellen deuten darauf hin, dass die Sichtbarkeit und Popularität einer Quelle oft stärker gewichtet werden als deren medizinische Zuverlässigkeit.

    Falschinformationen und deren Konsequenzen

    Die potenziellen Risiken dieser Quellenauswahl wurden bereits in der Praxis sichtbar. So lieferte Google auf Anfragen zum Normalbereich von Leberbluttests fehlerhafte Angaben, die von medizinisch anerkannten Referenzbereichen abwichen und wichtige Einflussfaktoren wie Alter oder Geschlecht unberücksichtigt ließen. Solche Ungenauigkeiten können schwerwiegende Folgen haben, da Patienten fälschlicherweise annehmen könnten, ihre Werte seien unauffällig, und dringend benötigte ärztliche Hilfe nicht in Anspruch nehmen.

    Nachdem diese Probleme öffentlich wurden, entfernte Google einige der betreffenden AI Overviews. Jedoch bleiben andere potenziell problematische Ergebnisse, auch zu sensiblen Themen wie Krebs und psychischer Gesundheit, bestehen. Google betonte, dass AI Overviews darauf ausgelegt seien, hochwertige Inhalte aus vertrauenswürdigen Quellen anzuzeigen und nur bei hoher Vertrauenswürdigkeit der Antworten ausgespielt würden. Kritiker sehen hier jedoch unterschiedliche Maßstäbe, insbesondere bei Gesundheitsthemen.

    ChatGPT und die Quellenfrage

    Auch andere KI-Systeme wie ChatGPT zeigen eine ähnliche Problematik bei der Quellenzitation. Die Analyse ergab, dass ChatGPT nur in etwa 0,25 % aller Antworten explizite Quellen angibt. Wenn Quellen genannt werden, stammen diese überdurchschnittlich häufig von nutzergenerierten Plattformen wie Reddit oder Wikipedia, die ebenfalls keine redaktionelle Kontrolle oder medizinische Qualitätsstandards aufweisen. Dies erschwert eine verlässliche Qualitätsbewertung der generierten Gesundheitsinformationen.

    OpenAI hat zwar mit "ChatGPT Health" einen spezialisierten Modus für medizinische Inhalte eingeführt, der eine vorsichtigere Einordnung und bessere Kontextualisierung verspricht. Der Zugang ist jedoch noch eingeschränkt, und die Wirksamkeit muss sich in der Praxis noch erweisen.

    Ausblick und Implikationen für B2B

    Die Ergebnisse dieser Analysen verdeutlichen die Herausforderungen, die mit dem Einsatz generativer KI in sensiblen Bereichen wie der Gesundheitsinformation einhergehen. Für Unternehmen im B2B-Sektor, die KI-Technologien in ihren Produkten und Dienstleistungen implementieren oder nutzen, ergeben sich daraus mehrere wichtige Erkenntnisse:

    • Qualität der Trainingsdaten: Die Auswahl und Validierung der Daten, auf denen KI-Modelle trainiert werden, ist entscheidend für die Qualität und Zuverlässigkeit der generierten Inhalte. Im Gesundheitsbereich ist der Zugriff auf und die Priorisierung von evidenzbasierten, fachlich geprüften Quellen unerlässlich.
    • Transparenz und Nachvollziehbarkeit: Nutzer müssen die Herkunft der Informationen nachvollziehen können, um deren Glaubwürdigkeit einzuschätzen. KI-Systeme, die keine oder nur unzureichende Quellenangaben liefern, bergen ein hohes Risiko.
    • Risikomanagement und Verifikation: Insbesondere bei Anwendungen, die potenziell gesundheitliche oder finanzielle Auswirkungen haben können, ist ein "Human-in-the-Loop"-Ansatz unerlässlich. KI-generierte Inhalte sollten als Entwürfe betrachtet und von Fachexperten überprüft und freigegeben werden.
    • Spezialisierung von KI-Modellen: Allgemeine Sprachmodelle sind oft nicht ausreichend, um die Komplexität und Sensibilität spezifischer Fachgebiete wie der Medizin adäquat abzubilden. Spezialisierte Modelle, die auf hochwertige Fachdaten trainiert und auf bestimmte Aufgaben optimiert wurden, können hier eine höhere Genauigkeit bieten, erfordern aber ebenfalls sorgfältige Validierung.
    • Regulatorische Anforderungen: Die zunehmende Verbreitung von KI im Gesundheitswesen wird voraussichtlich zu strengeren regulatorischen Anforderungen führen. Unternehmen sollten sich proaktiv mit diesen Entwicklungen auseinandersetzen und Compliance-Strategien entwickeln.

    KI-gestützte Gesundheitsantworten können eine schnelle Orientierung bieten und die Informationssuche erleichtern. Sie ersetzen jedoch weder eine transparente Einordnung noch medizinische Expertise. Solange die Herkunft und Gewichtung der Quellen für Nutzer schwer nachvollziehbar bleiben und die Gefahr von Falschinformationen besteht, bleiben KI-Systeme in diesem Bereich ein hilfreiches Orientierungsinstrument, aber keine verlässliche Entscheidungsgrundlage. Für Mindverse, als KI-Partner, ist es von größter Bedeutung, diese Aspekte zu berücksichtigen und Lösungen anzubieten, die höchste Standards an Genauigkeit, Transparenz und Verlässlichkeit erfüllen.

    Bibliography

    - "Googles AI Overviews beziehen sich bei Medizinfragen meistens auf Youtube", t3n.de, 25.01.2026. - "Gesundheit & KI: Welche Quellen Google AI Overviews bevorzugt", seranking.com, 14.01.2026. - "Google's 'AI Overviews' Cite YouTube For Health Queries More Than Any Medical Sites, Study Suggests", news.slashdot.org, 25.01.2026. - "AI Overviews bei Gesundheitsfragen: Warum Googles KI gefährlich falsch liegt", t3n.de, 17.01.2026. - "Google als Gesundheitsratgeber: Wenn AI Overviews falsche Ergebnisse liefert", t3n.de, 12.01.2026. - "Google streicht einige Gesundheitsfragen aus den AI Overviews wegen Genauigkeitsbedenken", de.euronews.com, 12.01.2026. - "Sicherheitslücke bei Gemini: Ein Kalendereintrag reicht, um die KI zu manipulieren", t3n.de, 25.01.2026. - "MedLM-Modelle – Übersicht", cloud.google.com, 23.01.2026.

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen