Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Fähigkeit von Künstlicher Intelligenz, visuelle Konzepte zu klassifizieren, hat in den letzten Jahren erhebliche Fortschritte gemacht. Insbesondere Große Multimodale Modelle (LMMs) zeigen ein starkes visuelles Verständnis. Dennoch stehen diese Modelle bei der feingranularen Klassifizierung in Open-World-Szenarien vor spezifischen Herausforderungen. Eine aktuelle Forschungsarbeit beleuchtet diese Problematik und stellt einen vielversprechenden Lösungsansatz vor.
In einer Open-World-Umgebung, in der Modelle ohne ein vordefiniertes Satz an Labels operieren müssen, ist es entscheidend, dass Vorhersagen sowohl akkurat als auch spezifisch sind. Aktuelle LMMs neigen jedoch dazu, bei feingranularen Bildklassifizierungsaufgaben zu allgemeine Vorhersagen zu treffen. Ein Beispiel hierfür ist die Klassifizierung einer "Gänseblümchen" als "Blume" – zwar korrekt, aber nicht spezifisch genug.
Eine detaillierte Analyse hat gezeigt, dass die Modelle das intrinsische feingranulare Domain-Wissen grundsätzlich besitzen. Die Schwierigkeit besteht darin, spezifischere Vorhersagen zu fördern, ohne dabei die Korrektheit der Klassifizierung zu gefährden. Diese Balance zwischen Spezifität und Korrektheit stellt eine nicht-triviale und bisher wenig erforschte Herausforderung dar.
Um dieses Problem anzugehen, wurde ein innovatives Reinforcement-Learning-Framework namens SpeciaRL entwickelt. Ziel ist es, LMMs so zu optimieren, dass sie sowohl korrekte als auch spezifische Vorhersagen liefern.
Das Herzstück von SpeciaRL ist ein dynamisches, verifizierungsbasiertes Belohnungssignal. Dieses Signal ist an die besten Vorhersagen innerhalb von Online-Rollouts gekoppelt. Es fördert die Spezifität, berücksichtigt jedoch gleichzeitig die Fähigkeiten des Modells, um falsche Vorhersagen zu vermeiden. Dies bedeutet, dass das Modell für präzisere Klassifizierungen belohnt wird, aber nur, wenn diese Präzision nicht auf Kosten der Richtigkeit geht.
Die Belohnungsberechnung erfolgt dabei effizient und nutzt die Rollouts des GRPO-Algorithmus (Group Relative Policy Optimization), ohne zusätzliche Generationen zu erfordern. Der Ansatz basiert auf einer Kategorisierung der Vorhersagen, die von einem Large Language Model (LLM) als "Richter" vorgenommen wird. Diese Kategorien umfassen:
Diese Kategorien sind hierarchisch geordnet und erlauben eine feingranulare Bewertung der Vorhersagequalität.
Umfassende Experimente haben gezeigt, dass SpeciaRL den besten Kompromiss zwischen Korrektheit und Spezifität über eine Vielzahl von feingranularen Benchmarks hinweg erzielt. Es übertrifft dabei bestehende Methoden und treibt die Open-World-Feingranulare-Bildklassifizierung voran.
Die Trainingsdaten und Testdaten stammten aus unterschiedlichen Domänen, was die Generalisierungsfähigkeit des Modells unterstreicht. Beispielsweise wurde das Modell auf einem Teil des CUB-Datensatzes (Vogelarten) trainiert und auf Datensätzen wie Flowers102, Food101 und OxfordPets getestet.
Im Vergleich zu Zero-Shot-Methoden und anderen Fine-Tuning-Ansätzen zeigte SpeciaRL eine deutliche Verbesserung in der harmonischen Mittelwert (HM) aus Spezifität und Korrektheit. Dies deutet darauf hin, dass SpeciaRL nicht nur die Präzision der Vorhersagen steigert, sondern auch die Qualität des zugrunde liegenden Denkprozesses verbessert.
Ablationsstudien bestätigten die Wirksamkeit des dynamischen Belohnungssignals und die Robustheit des Ansatzes gegenüber Variationen in den Trainingsdaten und der Anzahl der Online-Rollouts. Es wurde festgestellt, dass SpeciaRL auch bei unterschiedlichen RL-Algorithmen (wie GRPO, Dr.GRPO und DAPO) konsistent zu besseren Ergebnissen führt, was seine Vielseitigkeit unterstreicht.
Interessanterweise zeigte die Studie, dass die Modelle über das Wissen verfügen, präzisere Vorhersagen zu treffen, jedoch eine Tendenz zu generischen Antworten aufweisen, möglicherweise aufgrund von Verzerrungen in den Vortrainingsdaten, wo generische Konzepte häufiger sind.
Die Forschungsergebnisse von SpeciaRL sind von Bedeutung für Unternehmen, die auf präzise und differenzierte Bildklassifizierung angewiesen sind. Die Fähigkeit, LMMs dazu zu bringen, spezifischere und korrektere Vorhersagen zu treffen, kann in verschiedenen Anwendungsbereichen von Vorteil sein, darunter:
Die Implementierung von Methoden wie SpeciaRL könnte dazu beitragen, die Effizienz und Genauigkeit von KI-gestützten Systemen in diesen und weiteren Bereichen signifikant zu steigern.
Die Entwicklung von SpeciaRL stellt einen wichtigen Schritt zur Überwindung der Einschränkungen von LMMs bei der feingranularen Open-World-Klassifizierung dar. Indem es die Modelle dazu anleitet, ihr vorhandenes Wissen effektiver zu nutzen und spezifischere, dabei aber korrekte Vorhersagen zu treffen, eröffnet SpeciaRL neue Möglichkeiten für präzisere und zuverlässigere KI-Anwendungen. Die Forschung unterstreicht die Notwendigkeit, Reinforcement Learning gezielt einzusetzen, um das Potenzial großer Modelle voll auszuschöpfen und die Balance zwischen verschiedenen Leistungsmetriken zu optimieren.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen