KI für Ihr Unternehmen – Jetzt Demo buchen

Neuer Ansatz für das Abfrageverständnis in sozialen Netzwerken: Das QP-OneModel

Kategorien:
No items found.
Freigegeben:
February 12, 2026

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren

    Das Wichtigste in Kürze

    • Das QP-OneModel ist ein vereinheitlichtes, generatives großes Sprachmodell (LLM), das für das multi-task Abfrageverständnis in Suchmaschinen sozialer Netzwerke (SNS) entwickelt wurde.
    • Es transformiert heterogene Abfrageverarbeitungs-Subaufgaben in ein einziges Sequenzgenerierungsparadigma, wodurch semantische Synergien und globale Optimierung gefördert werden.
    • Das Modell verwendet eine dreistufige progressive Ausrichtungsstrategie, die Wissensinjektion, Zielverteilungsanpassung und Mehrfachbelohnungs-Reinforcement Learning umfasst.
    • QP-OneModel generiert neuartige Intent-Beschreibungen, die als hochpräzise semantische Signale für nachgelagerte Aufgaben wie Abfrageumschreibung und Ranking dienen.
    • Offline-Evaluierungen zeigen eine signifikante Verbesserung der Gesamtleistung um 7,35 % gegenüber diskriminativen Baselines, mit erheblichen F1-Steigerungen bei der benannten Entitätserkennung (NER) und Termgewichtung.
    • Online-A/B-Tests bei Xiaohongshu bestätigen den industriellen Wert des Modells durch Optimierung der Abrufrelevanz und Steigerung der Benutzerbindung.

    Revolution im Suchmaschinenverständnis: Das QP-OneModel von Xiaohongshu

    Im dynamischen und sich ständig weiterentwickelnden Umfeld von Suchmaschinen, insbesondere im Bereich der sozialen Netzwerke (SNS), stellt die präzise Interpretation von Benutzeranfragen eine zentrale Herausforderung dar. Traditionelle Systeme zur Abfrageverarbeitung (Query Processing, QP) basieren oft auf einer Abfolge isolierter, diskriminativer Modelle. Diese Pipeline-Architekturen sind jedoch mit Einschränkungen behaftet, darunter ein begrenztes semantisches Verständnis und ein hoher Wartungsaufwand. Eine aktuelle Forschungsarbeit, das "QP-OneModel", präsentiert einen neuartigen Ansatz, der die Fähigkeiten großer Sprachmodelle (Large Language Models, LLMs) nutzt, um diese Herausforderungen zu adressieren und das Abfrageverständnis grundlegend zu verbessern.

    Die Grenzen traditioneller Abfrageverarbeitungssysteme

    Herkömmliche QP-Systeme in SNS-Suchmaschinen, wie sie beispielsweise bei Xiaohongshu zum Einsatz kommen, zerlegen komplexe Benutzeranfragen in mehrere Subaufgaben. Dazu gehören typischerweise die Erkennung benannter Entitäten (Named Entity Recognition, NER), die Wortsegmentierung, die Termgewichtung und die Klassifizierung von Abfragen in Taxonomien. Diese Aufgaben werden oft sequenziell von spezialisierten, diskriminativen Modellen (z.B. basierend auf BERT) bearbeitet. Während diese Modelle in ihren jeweiligen Domänen leistungsfähig sind, führt die fragmentierte Natur dieser Pipelines zu mehreren Problemen:

    • Begrenztes semantisches Verständnis: Isolierte Modelle können komplexe oder nuancierte Benutzerintentionen schwer erfassen, insbesondere bei Long-Tail-Anfragen oder sich ändernden Datendistributionen.
    • Hoher Wartungsaufwand: Selbst kleine Anpassungen an Klassifikationstaxonomien oder Eingabeschemata erfordern oft ein erneutes Training der gesamten Modellkette, was die schnelle Iteration in industriellen Umgebungen behindert.
    • Fehlerfortpflanzung: Fehler, die in einem frühen Stadium der Pipeline entstehen, können sich durch nachfolgende Module fortpflanzen und die Gesamtleistung beeinträchtigen.

    Das QP-OneModel: Ein einheitlicher, generativer Ansatz

    Das QP-OneModel, entwickelt von einem Team um Jianzhao Huang, Xiaorui Huang und Fei Zhao, adressiert diese Limitierungen durch einen radikal anderen Ansatz: Es reformuliert alle heterogenen QP-Subaufgaben in ein einziges, vereinheitlichtes Sequenzgenerierungsparadigma. Anstatt auf isolierte diskriminative Köpfe zu setzen, generiert das Modell eine strukturierte Sequenz, die alle Analyseergebnisse in einem einzigen Durchgang enthält. Dies ermöglicht eine globale Optimierung der intrinsischen Aufgabenkorrelationen und nutzt den globalen Abfragekontext zur Auflösung lokaler Mehrdeutigkeiten.

    Architektur und Methodik

    Der Kern des QP-OneModels liegt in seiner Fähigkeit, die Lücke zwischen Open-Domain-Korpora und den informellen Sprachmustern von SNS-Daten zu schließen. Dies wird durch drei Hauptkomponenten erreicht:

    1. Vereinheitlichtes generatives Paradigma: Alle QP-Subaufgaben (NER, Wortsegmentierung, Termgewichtung, Abfragetaxonomie und eine neuartige Intent-Beschreibung) werden als eine einzige Sequenz-zu-Sequenz-Generierungsaufgabe modelliert. Dies eliminiert die Abhängigkeiten kaskadierter Pipelines und ermöglicht eine ganzheitliche Optimierung.
    2. Domänenspezifischer Backbone: Das Modell nutzt den RedOne-Backbone, ein speziell für SNS-Szenarien adaptiertes LLM. Dieser Backbone ist darauf ausgelegt, informelle Sprachmuster und aufkommenden Slang zu verstehen, was für die Verarbeitung von SNS-Abfragen entscheidend ist.
    3. Progressive dreistufige Ausrichtungsstrategie: Diese Strategie wurde entwickelt, um die Herausforderungen komplexer Geschäftsregeln und Datenknappheit systematisch zu bewältigen und das Modell von einem breiten Domänenwissen zu einer präzisen Internalisierung der Geschäftslogik zu führen:
      • Stufe 1: Wissensinjektion durch gemischtes Training: Um die Datenknappheit menschlich annotierter Daten zu überwinden, wird eine Mischung aus begrenzten, hochwertigen, unified Daten und massiven Hilfsdatensätzen aus historischen Logs verwendet. Letztere werden durch Task-Dekomposition und Pseudo-Labeling gewonnen.
      • Stufe 2: Zielverteilungsanpassung: In dieser Phase wird das Modell ausschließlich auf den hochwertigen, menschlich annotierten Daten feinabgestimmt. Dies gewährleistet die Ausrichtung an aktuellen sprachlichen Trends und ein konsistentes Output-Schema.
      • Stufe 3: Logikinternalisierung durch Mehrfachbelohnungs-Reinforcement Learning (RL): Anstatt nur Referenzausgaben zu imitieren, optimiert diese RL-Phase das Modell, um aufgabenspezifische Belohnungen zu maximieren. Eine zusammengesetzte Belohnungsfunktion, die alle Subaufgaben ausbalanciert, fördert die Internalisierung der zugrunde liegenden Argumentationslogik.

    Ein weiterer innovativer Aspekt des QP-OneModels ist die Generierung von Intent-Beschreibungen. Dies sind natürlichsprachliche Narrative des zugrunde liegenden Suchziels des Benutzers, die als hochpräzise semantische Signale für nachgelagerte Anwendungen wie Abfrageumschreibung und Ranking dienen.

    Evaluierung und Ergebnisse

    Die Wirksamkeit des QP-OneModels wurde sowohl durch umfangreiche Offline-Evaluierungen als auch durch groß angelegte Online-A/B-Tests bei Xiaohongshu bestätigt.

    Offline-Evaluierung

    Die Offline-Tests zeigten signifikante Leistungssteigerungen gegenüber traditionellen diskriminativen Pipeline-Baselines. Das QP-OneModel-8B erreichte eine Verbesserung der Gesamtpunktzahl um 7,35 %. Besonders hervorzuheben sind die F1-Steigerungen bei komplexen Aufgaben wie NER (+9,01 %) und Termgewichtung (+9,31 %), die traditionellen Modellen Schwierigkeiten bereiteten. Auch das kleinere QP-OneModel-0.6B übertraf die BERT-Pipeline deutlich, was die Effektivität der Methodik unabhängig von der Modellgröße unterstreicht.

    Eine Analyse der Synergieeffekte zeigte, dass das vereinheitlichte Modell aufgrund der gemeinsamen latenten Repräsentationen und des positiven Wissenstransfers eine überlegene Leistung bei stark synergetischen Aufgaben wie NER, Wortsegmentierung und Termgewichtung erzielt. Ablationsstudien bestätigten zudem den positiven Einfluss des domänenspezifischen RedOne-Backbones und der dreistufigen Ausrichtungsstrategie.

    Besonders bemerkenswert ist die Fähigkeit des QP-OneModels zur Generalisierung auf ungesehene Aufgaben. In einem Few-Shot-Setting übertraf das QP-OneModel-8B selbst das deutlich größere Qwen3-32B-Modell bei der Genauigkeit für die "Document Intent Recognition" um 7,60 %, was auf ein robustes, abstraktes Verständnis der Abfragesemantik hindeutet.

    Online-A/B-Tests

    Die vollständige Implementierung des QP-OneModels in der Suchergebnis-Seite von Xiaohongshu und die anschließenden Online-A/B-Tests lieferten weitere Belege für seinen industriellen Wert:

    • Verbesserung der Abrufrelevanz: Der DCG 0/1-Metrik, ein Maß für die Relevanz, verbesserte sich um 0,21 %. Dies übertraf den Schwellenwert für statistische Signifikanz und wird auf die Synergie des vereinheitlichten Paradigmas und die RL-gesteuerte Anpassung an komplexe Geschäftslogik zurückgeführt.
    • Reduzierung der Null-/Wenige-Ergebnis-Rate: Eine Senkung um 0,4631 % in der Rate von Abfragen mit extrem wenigen Ergebnissen deutet darauf hin, dass das Modell durch das Beherrschen informellen Slangs semantische Lücken bei Long-Tail-Anfragen schließen kann.
    • Steigerung der Benutzerbindung: Die Integration von Intent-Beschreibungen in nachgelagerte Aufgaben wie die Abfrageumschreibung führte zu einer Steigerung der Note Effective CTR (NECTR) um +0,17 % und der SAU-Retention (Benutzerbindung am nächsten Tag) um +0,044 %. Diese Ergebnisse belegen, dass die vom QP-OneModel bereitgestellten Intent-Signale zu einem besseren semantischen Verständnis und einer verbesserten Benutzererfahrung führen.

    Qualitative Analyse

    Qualitative Beispiele verdeutlichen die Fähigkeit des QP-OneModels, mit herausfordernden Abfragen umzugehen. Es kann semantische Sparsität überwinden, indem es implizite Marken (z.B. "Estée Lauder" aus "1c1") ableitet und Benutzerziele wie den Farbvergleich von Make-up-Tönen inferiert. Darüber hinaus kann es Polysemie auflösen (z.B. zwischen militärischem Fakt und Gaming-Kontext bei "163 Guards Tank Regiment") und die Granularität von Produktentitäten erweitern, indem es relevante Attribute wie Windwiderstand und Preis hinzufügt.

    Fazit und Ausblick

    Das QP-OneModel stellt einen Fortschritt im Bereich des multi-task Abfrageverständnisses für SNS-Suchmaschinen dar. Durch die Vereinheitlichung heterogener Aufgaben in einem generativen Framework, die Nutzung eines domänenspezifischen Backbones und eine progressive, mehrfach belohnte Reinforcement-Learning-Strategie übertrifft es traditionelle diskriminative Ansätze deutlich. Die Fähigkeit, hochpräzise Intent-Beschreibungen zu generieren, verbessert zudem nachgelagerte Anwendungen und die Benutzererfahrung.

    Die erfolgreiche Implementierung bei Xiaohongshu und die positiven Online-A/B-Testergebnisse unterstreichen den praktischen Nutzen und die Skalierbarkeit dieser Technologie. Das QP-OneModel bietet eine robuste und effiziente Lösung für die Herausforderungen der Abfrageverarbeitung in modernen Suchmaschinen und legt den Grundstein für zukünftige Innovationen in der Interpretation komplexer Benutzerintentionen.

    Bibliography

    • Huang, J., Huang, X., Zhao, F., Liu, Y., Zhang, H., Shi, F., Li, C., Sun, Z., Wu, Y., Hu, Y., Bai, Y., Cao, S. (2026). QP-OneModel: A Unified Generative LLM for Multi-Task Query Understanding in Xiaohongshu Search. arXiv preprint arXiv:2602.09901.
    • Sokolova, M., & Lapalme, G. (2009). A systematic analysis of performance measures for classification tasks. Information Processing & Management, 45(4), 427-437.
    • Zhao, F., Lu, C., Xie, Z., Liu, Z., Qian, H., Huang, J., Shi, F., Meng, Z., Guo, H., He, M., et al. (2025b). RedOne: Revealing Domain-specific LLM Post-Training in Social Networking Services. In Proceedings of the 2025 Conference on Empirical Methods in Natural Language Processing: Industry Track, 2648–2674.
    • Zhao, F., Lu, C., Qian, H., Shi, F., Meng, Z., Huang, J., Tang, X., Xie, Z., Ye, Z., Xu, Z., et al. (2025a). RedOne 2.0: Rethinking Domain-specific LLM Post-Training in Social Networking Services. arXiv preprint arXiv:2511.07070.
    • Yang, A., Li, A., Yang, B., Zhang, B., Hui, B., Yu, B., Gao, C., Huang, C., Lv, C., et al. (2025). Qwen3 Technical Report. arXiv preprint arXiv:2505.09388.
    • Ouyang, L., Wu, J., Jiang, X., Almeida, D., Wainwright, C., Mishkin, P., Zhang, C., Agarwal, S., Slama, K., Ray, A., et al. (2022). Training language models to follow instructions with human feedback. In Proceedings of NeurIPS, Vol. 35, 27730–27744.
    • Schulman, J., Wolski, F., Dhariwal, P., Radford, A., & Klimov, O. (2017). Proximal policy optimization algorithms. arXiv preprint arXiv:1707.06347.
    • Guo, X., Chen, B., Wang, S., Yang, Y., Lei, C., Ding, Y., & Li, H. (2025a). OneSug: The Unified End-to-End Generative Framework for E-commerce Query Suggestion. arXiv preprint arXiv:2506.06913.
    • Chen, B., Guo, X., Wang, S., Liang, Z., Lv, Y., Ma, Y., Xiao, X., Xue, B., Zhang, X., Yang, Y., et al. (2025). Onesearch: A preliminary exploration of the unified end-to-end generative framework for e-commerce search. arXiv preprint arXiv:2509.03236.

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen