KI für Ihr Unternehmen – Jetzt Demo buchen

Verbesserung der Spezifität von KI-Modellen in der feingranularen Bildklassifizierung durch ein neues Reinforcement-Learning-Framework

Kategorien:
No items found.
Freigegeben:
March 6, 2026

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren

    Das Wichtigste in Kürze

    • KI-Modelle tendieren bei der Klassifizierung feingranularer visueller Konzepte in Open-World-Szenarien zu generischen Vorhersagen, obwohl sie das notwendige Wissen besitzen.
    • Ein neuartiges Reinforcement-Learning-Framework namens SpeciaRL wurde entwickelt, um die Spezifität dieser Modelle zu verbessern, ohne die Korrektheit zu beeinträchtigen.
    • SpeciaRL nutzt ein dynamisches, verifizierungsbasiertes Belohnungssignal, das an die besten Vorhersagen innerhalb von Online-Rollouts gekoppelt ist.
    • Die Methode zeigt eine signifikante Verbesserung in der Balance zwischen Spezifität und Korrektheit im Vergleich zu bestehenden Ansätzen.
    • Die Forschung unterstreicht die Bedeutung der Optimierung des Verhaltens von Modellen, um ihr vorhandenes Wissen effektiver zu nutzen.

    Die Fähigkeit von Künstlicher Intelligenz, visuelle Konzepte zu klassifizieren, hat in den letzten Jahren erhebliche Fortschritte gemacht. Insbesondere Große Multimodale Modelle (LMMs) zeigen ein starkes visuelles Verständnis. Dennoch stehen diese Modelle bei der feingranularen Klassifizierung in Open-World-Szenarien vor spezifischen Herausforderungen. Eine aktuelle Forschungsarbeit beleuchtet diese Problematik und stellt einen vielversprechenden Lösungsansatz vor.

    Die Herausforderung der feingranularen Klassifizierung in Open-World-Szenarien

    In einer Open-World-Umgebung, in der Modelle ohne ein vordefiniertes Satz an Labels operieren müssen, ist es entscheidend, dass Vorhersagen sowohl akkurat als auch spezifisch sind. Aktuelle LMMs neigen jedoch dazu, bei feingranularen Bildklassifizierungsaufgaben zu allgemeine Vorhersagen zu treffen. Ein Beispiel hierfür ist die Klassifizierung einer "Gänseblümchen" als "Blume" – zwar korrekt, aber nicht spezifisch genug.

    Eine detaillierte Analyse hat gezeigt, dass die Modelle das intrinsische feingranulare Domain-Wissen grundsätzlich besitzen. Die Schwierigkeit besteht darin, spezifischere Vorhersagen zu fördern, ohne dabei die Korrektheit der Klassifizierung zu gefährden. Diese Balance zwischen Spezifität und Korrektheit stellt eine nicht-triviale und bisher wenig erforschte Herausforderung dar.

    SpeciaRL: Ein neuartiger Ansatz mittels Reinforcement Learning

    Um dieses Problem anzugehen, wurde ein innovatives Reinforcement-Learning-Framework namens SpeciaRL entwickelt. Ziel ist es, LMMs so zu optimieren, dass sie sowohl korrekte als auch spezifische Vorhersagen liefern.

    Dynamisches, verifizierungsbasiertes Belohnungssignal

    Das Herzstück von SpeciaRL ist ein dynamisches, verifizierungsbasiertes Belohnungssignal. Dieses Signal ist an die besten Vorhersagen innerhalb von Online-Rollouts gekoppelt. Es fördert die Spezifität, berücksichtigt jedoch gleichzeitig die Fähigkeiten des Modells, um falsche Vorhersagen zu vermeiden. Dies bedeutet, dass das Modell für präzisere Klassifizierungen belohnt wird, aber nur, wenn diese Präzision nicht auf Kosten der Richtigkeit geht.

    Die Belohnungsberechnung erfolgt dabei effizient und nutzt die Rollouts des GRPO-Algorithmus (Group Relative Policy Optimization), ohne zusätzliche Generationen zu erfordern. Der Ansatz basiert auf einer Kategorisierung der Vorhersagen, die von einem Large Language Model (LLM) als "Richter" vorgenommen wird. Diese Kategorien umfassen:

    • Falsch (Wrong - W): Die Vorhersage ist inkorrekt.
    • Enthalten (Abstain - A): Das Modell weigert sich zu antworten.
    • Generisch (Generic - G): Die Vorhersage ist korrekt, aber zu breit (z.B. "Hund" statt "Samojede").
    • Weniger spezifisch (Less Specific - S-): Die Vorhersage ist korrekt, aber eine eng verwandte Oberkategorie (z.B. "Laubsänger" statt "Goldflügel-Laubsänger").
    • Spezifisch (Specific - S): Die Vorhersage stimmt exakt mit dem Ground-Truth überein.
    • Spezieller (More Specific - S+): Die Vorhersage ist spezifischer als das Ground-Truth.

    Diese Kategorien sind hierarchisch geordnet und erlauben eine feingranulare Bewertung der Vorhersagequalität.

    Experimentelle Validierung und Ergebnisse

    Umfassende Experimente haben gezeigt, dass SpeciaRL den besten Kompromiss zwischen Korrektheit und Spezifität über eine Vielzahl von feingranularen Benchmarks hinweg erzielt. Es übertrifft dabei bestehende Methoden und treibt die Open-World-Feingranulare-Bildklassifizierung voran.

    Die Trainingsdaten und Testdaten stammten aus unterschiedlichen Domänen, was die Generalisierungsfähigkeit des Modells unterstreicht. Beispielsweise wurde das Modell auf einem Teil des CUB-Datensatzes (Vogelarten) trainiert und auf Datensätzen wie Flowers102, Food101 und OxfordPets getestet.

    Im Vergleich zu Zero-Shot-Methoden und anderen Fine-Tuning-Ansätzen zeigte SpeciaRL eine deutliche Verbesserung in der harmonischen Mittelwert (HM) aus Spezifität und Korrektheit. Dies deutet darauf hin, dass SpeciaRL nicht nur die Präzision der Vorhersagen steigert, sondern auch die Qualität des zugrunde liegenden Denkprozesses verbessert.

    Ablationsstudien und Robustheit

    Ablationsstudien bestätigten die Wirksamkeit des dynamischen Belohnungssignals und die Robustheit des Ansatzes gegenüber Variationen in den Trainingsdaten und der Anzahl der Online-Rollouts. Es wurde festgestellt, dass SpeciaRL auch bei unterschiedlichen RL-Algorithmen (wie GRPO, Dr.GRPO und DAPO) konsistent zu besseren Ergebnissen führt, was seine Vielseitigkeit unterstreicht.

    Interessanterweise zeigte die Studie, dass die Modelle über das Wissen verfügen, präzisere Vorhersagen zu treffen, jedoch eine Tendenz zu generischen Antworten aufweisen, möglicherweise aufgrund von Verzerrungen in den Vortrainingsdaten, wo generische Konzepte häufiger sind.

    Implikationen für die Praxis

    Die Forschungsergebnisse von SpeciaRL sind von Bedeutung für Unternehmen, die auf präzise und differenzierte Bildklassifizierung angewiesen sind. Die Fähigkeit, LMMs dazu zu bringen, spezifischere und korrektere Vorhersagen zu treffen, kann in verschiedenen Anwendungsbereichen von Vorteil sein, darunter:

    • Qualitätskontrolle: Präzisere Erkennung von Produktfehlern oder -merkmalen.
    • Medizinische Bildanalyse: Detailliertere Klassifizierung von Krankheitsbildern oder Zelltypen.
    • E-Commerce: Verbesserte Kategorisierung von Produkten, um die Suchgenauigkeit zu erhöhen.
    • Automatisierte Überwachung: Spezifischere Erkennung von Objekten oder Ereignissen in komplexen Umgebungen.

    Die Implementierung von Methoden wie SpeciaRL könnte dazu beitragen, die Effizienz und Genauigkeit von KI-gestützten Systemen in diesen und weiteren Bereichen signifikant zu steigern.

    Fazit

    Die Entwicklung von SpeciaRL stellt einen wichtigen Schritt zur Überwindung der Einschränkungen von LMMs bei der feingranularen Open-World-Klassifizierung dar. Indem es die Modelle dazu anleitet, ihr vorhandenes Wissen effektiver zu nutzen und spezifischere, dabei aber korrekte Vorhersagen zu treffen, eröffnet SpeciaRL neue Möglichkeiten für präzisere und zuverlässigere KI-Anwendungen. Die Forschung unterstreicht die Notwendigkeit, Reinforcement Learning gezielt einzusetzen, um das Potenzial großer Modelle voll auszuschöpfen und die Balance zwischen verschiedenen Leistungsmetriken zu optimieren.

    Bibliographie

    • Angheben, S., Berasi, D., Conti, A., Ricci, E., & Wang, Y. (2026). Specificity-aware reinforcement learning for fine-grained open-world classification. arXiv preprint arXiv:2603.03197.
    • Conti, A., Mancini, M., Fini, E., Wang, Y., Rota, P., & Ricci, E. (2025). On large multimodal models as open-world image classifiers. ICCV.
    • Guo, D., Yang, D., Zhang, H., Song, J., Zhang, R., Xu, R., Zhu, Q., Ma, S., Wang, P., Bi, X., et al. (2025). Deepseek-r1: incentivizing reasoning capability in llms via reinforcement learning. arXiv preprint arXiv:2501.12948.
    • Shao, Z., Wang, P., Zhu, Q., Xu, R., Song, J., Bi, X., Zhang, H., Zhang, M., Li, Y. K., Wu, Y., & Guo, D. (2024). Deepseekmath: Pushing the limits of mathematical reasoning in open language models. arXiv preprint arXiv:2402.03300.

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen