DataGemma von Google: Neue Wege zur Steigerung der Zuverlässigkeit künstlicher Intelligenz

Kategorien:
No items found.
Freigegeben:
September 18, 2024
Google DataGemma: Ein Meilenstein zur Reduzierung von AI-Halluzinationen

Google DataGemma: Ein Meilenstein zur Reduzierung von AI-Halluzinationen

Einführung in DataGemma und seine Ziele

Google hat vor kurzem DataGemma vorgestellt, ein Set von offenen Modellen, die entwickelt wurden, um die Genauigkeit und Zuverlässigkeit von groß angelegten Sprachmodellen (LLMs) zu verbessern, indem sie in realen Daten verankert werden. Diese Entwicklung ist eine Reaktion auf das anhaltende Problem der Halluzinationen bei LLMs, bei denen KI-Modelle manchmal sehr überzeugend falsche Informationen präsentieren.

Technologische Grundlagen von DataGemma

DataGemma nutzt Google Data Commons, ein öffentlich zugängliches Wissensgrafik, das mehr als 240 Milliarden globale Datenpunkte aus verifizierten Quellen wie den Vereinten Nationen, der Weltgesundheitsorganisation und verschiedenen statistischen Behörden enthält.

RIG: Retrieval Interleaved Generation

DataGemma verwendet zwei bekannte Ansätze: Retrieval Interleaved Generation (RIG) und Retrieval Augmented Generation (RAG). RIG verwendet ein fein abgestimmtes Gemma-2-Modell, um Statistiken innerhalb der Antworten zu identifizieren und sie mit einem Abruf aus den Data Commons zu kombinieren, sodass das Modell seine Ausgabe mit einer vertrauenswürdigen Quelle überprüfen kann. Ein Beispiel dafür wäre die Ausgabe "Die Bevölkerung von Kalifornien beträgt [DC(Was ist die Bevölkerung von Kalifornien?) → '39 Millionen']".

RAG: Retrieval Augmented Generation

Im RAG-Ansatz analysiert ein ebenfalls fein abgestimmtes Gemma-Modell die Frage des Benutzers und wandelt sie in eine Form um, die von Data Commons verstanden werden kann. Die Informationen aus dieser Abfrage werden verwendet, um die ursprüngliche Frage zu bereichern, bevor ein größeres Sprachmodell - wie Gemini 1.5 Pro - die endgültige Antwort generiert.

Herausforderungen und Vorteile der beiden Ansätze

Beide Ansätze haben ihre Vor- und Nachteile. Laut den Google-Forschern arbeitet RIG effektiv in allen Kontexten, erlaubt jedoch nicht, dass LLM Daten aus Data Commons lernt, die nach der Feinabstimmung hinzugefügt wurden. Darüber hinaus erfordert die Feinabstimmung spezifische Datensätze, die auf die jeweilige Aufgabe zugeschnitten sind. RAG hingegen profitiert automatisch von der fortlaufenden Entwicklung neuer Modelle, kann jedoch je nach Benutzerabfrage zu einer weniger intuitiven Benutzererfahrung führen.

Verfügbarkeit und erste Ergebnisse

Google hat die Modelle auf Hugging Face und Kaggle zur Verfügung gestellt, zusammen mit Quickstart-Notebooks für beide Ansätze. In ersten Tests zeigte sich eine signifikante Verbesserung der Genauigkeit der Sprachmodelle bei der Handhabung numerischer Fakten. Dies deutet darauf hin, dass Benutzer für Anwendungsfälle im Bereich Forschung, Entscheidungsfindung oder zur Befriedigung von Neugierde weniger Halluzinationen erleben werden.

Ausblick und zukünftige Entwicklungen

Google plant, diese Methoden weiter zu verfeinern, sie umfangreichen Tests zu unterziehen und diese verbesserte Funktionalität letztendlich in die Gemma- und Gemini-Modelle zu integrieren. Durch die Veröffentlichung dieser neuesten Variante des Gemma-Modells als „offenes“ Modell hofft Google, die breitere Akzeptanz dieser Data Commons-geführten Techniken zur Verankerung von LLMs in faktischen Daten zu fördern.

Bedeutung für die Zukunft der AI

Die Veröffentlichung von DataGemma markiert einen bedeutenden Schritt zur Verbesserung der Zuverlässigkeit von KI-Modellen. Da generative KI zunehmend in verschiedenen Sektoren wie Bildung, Gesundheitswesen, Verwaltung und Umweltpolitik integriert wird, ist die Adressierung von Halluzinationen entscheidend, um sicherzustellen, dass KI Benutzer mit genauen Informationen unterstützt. Googles Engagement, DataGemma als offenes Modell zu gestalten, spiegelt seine umfassendere Vision wider, Zusammenarbeit und Innovation in der AI-Community zu fördern.

Schlussfolgerung

DataGemma stellt einen innovativen Schritt zur Lösung des Problems der Halluzinationen bei AI dar, indem LLMs in den umfangreichen, autoritativen Datensätzen von Googles Data Commons verankert werden. Durch die Kombination der RIG- und RAG-Methoden hat Google ein robustes Werkzeug geschaffen, das die Genauigkeit und Zuverlässigkeit von AI-generierten Inhalten verbessert. Diese Veröffentlichung ist ein bedeutender Schritt zur Sicherstellung, dass AI zu einem vertrauenswürdigen Partner in Forschung, Entscheidungsfindung und Wissensentdeckung wird, während Einzelpersonen und Organisationen in die Lage versetzt werden, fundiertere Entscheidungen auf Basis realer Daten zu treffen. Bibliographie - https://blog.google/technology/ai/google-datagemma-ai-llm/ - https://venturebeat.com/ai/datagemma-googles-open-ai-models-mitigate-hallucination-on-statistical-queries/ - https://www.marktechpost.com/2024/09/13/google-ai-introduces-datagemma-a-set-of-open-models-that-utilize-data-commons-through-retrieval-interleaved-generation-rig-and-retrieval-augmented-generation-rag/ - https://medium.com/towards-artificial-intelligence/inside-datagemma-google-deepminds-initiative-to-ground-llms-in-factual-knowledge-958a70dc4b94 - https://www.techmeme.com/240913/p18 - https://www.onlinetools.directory/google-launches-datagemma-revolutionizes-ai-data-integration/ - https://www.technologyreview.com/2024/09/12/1103926/googles-new-tool-lets-large-language-models-fact-check-their-responses/ - https://x.com/GoogleDeepMind/status/1834554150643741135 - https://arxiv.org/html/2401.01301v1 - https://www.aibase.com/news/11737
Was bedeutet das?