Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die rapide Entwicklung von Large Language Models (LLMs) hat in den letzten Jahren das Potenzial zur Transformation verschiedener Branchen aufgezeigt. Insbesondere im Bereich des Spieldesigns eröffnen sich neue Möglichkeiten, von der Unterstützung bei der Regelerstellung bis hin zur Generierung von Spielmechanismen. Eine aktuelle Forschungsarbeit stellt ein innovatives Modell namens MeepleLM vor, das darauf abzielt, eine entscheidende Lücke in der Mensch-KI-Kollaboration im Spieldesign zu schließen: die Fähigkeit, konstruktive Kritik auf der Grundlage vielfältiger, subjektiver Nutzererfahrungen zu liefern. Dieses Modell agiert als virtueller Playtester, der die Meinungen und Empfindungen unterschiedlicher Spielertypen simuliert.
Brettspiele zeichnen sich durch eine inhärent emergente und subjektive Spielerfahrung aus. Die Qualität eines Spiels ergibt sich nicht allein aus den statischen Regeln, sondern aus der dynamischen Interaktion der Mechaniken, den Entscheidungen der Spieler und den daraus resultierenden emotionalen Reaktionen. Diese Komplexität stellt zwei zentrale Herausforderungen für die automatisierte Bewertung dar:
Um diesen Herausforderungen zu begegnen, wurde MeepleLM entwickelt. Das Modell basiert auf einem mehrstufigen Prozess der Datenerfassung, des Reasoning-Augmentings und des persona-konditionierten Instruction Tunings.
Die Grundlage für MeepleLM bildet ein umfangreicher Datensatz, der objektive Spielregelwerke mit subjektivem Spielerfeedback verknüpft. Die Erstellung dieses Datensatzes umfasste mehrere Schritte:
Die Aufgabe wird als Problem der bedingten Generierung formuliert: Angesichts eines Regelwerks ($\mathcal{R}$) und einer Zielspieler-Persona ($\mathcal{P}$) soll ein Feedback-Eintrag ($\mathcal{Y}$), bestehend aus einer numerischen Bewertung und einer textuellen Rezension, generiert werden.
MeepleLM wurde systematisch als virtueller Playtester anhand von drei Forschungsfragen evaluiert:
Ablationsstudien bestätigten den kritischen Beitrag jedes Moduls: Das Entfernen des Regelwerk-Kontextes führte zu einem Zusammenbruch der faktischen Genauigkeit, das Entfernen von Persona-Profilen verringerte die Ranking-Ausrichtung, und das Umgehen der MDA-Kette reduzierte die Meinungsrückgewinnung. Weitere Analysen zeigten die robuste Leistung von MeepleLM über verschiedene Zeiträume hinweg und insbesondere bei Personas mit hoher Varianz, was seine Fähigkeit demonstriert, soziale Dynamiken und subjektive "Vibes" zu erfassen.
MeepleLM stellt einen Paradigmenwechsel für das automatisierte virtuelle Testen interaktiver Systeme dar. Durch die Überbrückung der Kluft zwischen statischen Regelwerken und subjektiven Spielerfahrungen, die Kuration eines hochwertigen Datensatzes von Regel-Kritik-Paaren, die Integration von MDA-basiertem Reasoning und die Destillation von datengestützten Spieler-Personas, macht das Modell Spieldynamiken explizit. Die Experimente belegen, dass MeepleLM die Leistung allgemeiner LLMs bei der Erfassung authentischer Community-Stimmungen und umsetzbarer Design-Erkenntnisse deutlich übertrifft. Dies beschleunigt die Design-Iteration und erleichtert die personalisierte Auswahl für Spieler, was den Weg für eine erfahrungsbewusste Mensch-KI-Kollaboration ebnet, die auf vielfältige Publikumspräferenzen abgestimmt ist.
Trotz des vielversprechenden Potenzials von MeepleLM gibt es zwei primäre Einschränkungen:
Die Forschung hinter MeepleLM beachtet strenge ethische Richtlinien. Der Datensatz wurde aus öffentlich zugänglichen Online-Communities erstellt, wobei alle Benutzer-IDs und Rezensionskennungen anonymisiert wurden, um persönliche Daten zu schützen. Die Veröffentlichung beschränkt sich auf verarbeitete Versionen der Rezensionen und Metadaten, um die Verbreitung schädlicher Inhalte und Urheberrechtsverletzungen zu minimieren. Bei der menschlichen Evaluation wurde umfassende informierte Zustimmung eingeholt, Daten anonymisiert und sicher gespeichert, um Privatsphäre und Wohlbefinden der Teilnehmer zu gewährleisten.
Die Entwicklungen in diesem Bereich zeigen, wie KI-Technologien, insbesondere spezialisierte LLMs, das Potenzial haben, komplexe menschliche Interaktionen und subjektive Erfahrungen in spezifischen Domänen zu simulieren und damit neue Wege für Design und Entwicklung in der Wirtschaft zu eröffnen. Für B2B-Kunden, die an der Implementierung fortschrittlicher KI-Lösungen interessiert sind, bietet MeepleLM ein Beispiel dafür, wie maßgeschneiderte KI-Modelle durch die Berücksichtigung von Nuancen und Kontexten einen erheblichen Mehrwert schaffen können.
Bibliography - Benharrak et al. (2024). Karim Benharrak, Tim Zindulka, Florian Lehmann, Hendrik Heuer, and Daniel Buschek. Writer-defined ai personas for on-demand feedback generation. In Proceedings of the 2024 CHI Conference on Human Factors in Computing Systems, pages 1–18, 2024. - Chen et al. (2023). Yi Chen, Rui Wang, Haiyun Jiang, Shuming Shi, and Ruifeng Xu. Exploring the use of large language models for reference-free text quality evaluation: An empirical study. arXiv preprint arXiv:2304.00723, 2023. - Cheng et al. (2023). Myra Cheng, Tiziano Piccardi, and Diyi Yang. Compost: Characterizing and evaluating caricature in llm simulations. arXiv preprint arXiv:2310.11501, 2023. - Choi et al. (2023). Yoonseo Choi, Eun Jeong Kang, Min Kyung Lee, and Juho Kim. Creator-friendly algorithms: Behaviors, challenges, and design opportunities in algorithmic platforms. In Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems, pages 1–22, 2023. - Choi et al. (2025). Yoonseo Choi, Eun Jeong Kang, Seulgi Choi, Min Kyung Lee, and Juho Kim. Proxona: Supporting creators’ sensemaking and ideation with llm-powered audience personas. In Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems, pages 1–32, 2025. - Cooper (1999). Alan Cooper. The inmates are running the asylum. In Software-ergonomie’99: design von informationswelten, pages 17–17. Springer, 1999. - Fang et al. (2025). Cong Fang, Yujie Zhu, Le Fang, Yonghao Long, Huan Lin, Yangfan Cong, and Stephen Jia Wang. Generative ai-enhanced human-ai collaborative conceptual design: A systematic literature review. Design Studies, 97:101300, 2025. - Forlizzi and Battarbee (2004). Jodi Forlizzi and Katja Battarbee. Understanding experience in interactive systems. In Proceedings of the 5th conference on Designing interactive systems: processes, practices, methods, and techniques, pages 261–268, 2004. - Gao et al. (2025). Mingqi Gao, Xinyu Hu, Xunjian Yin, Jie Ruan, Xiao Pu, and Xiaojun Wan. Llm-based nlg evaluation: Current status and challenges. Computational Linguistics, pages 1–27, 2025. - Hansteen Izora and Teuscher (2025). Kaj Hansteen Izora and Christof Teuscher. Exploring the potential of large language models (llms) to simulate social group dynamics: A case study using the board game" secret hitler". Northeast Journal of Complex Systems (NEJCS), 7(2):5, 2025. - He et al. (2021). Pengcheng He, Jianfeng Gao, and Weizhu Chen. Debertav3: Improving deberta using electra-style pre-training with gradient-disentangled embedding sharing. arXiv preprint arXiv:2111.09543, 2021. - Hong et al. (2025). Jiale Hong, Hongqiu Wu, and Hai Zhao. Game development as human-llm interaction. In Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 4333–4354, 2025. - Hu et al. (2024). Chengpeng Hu, Yunlong Zhao, and Jialin Liu. Game generation via large language models. In 2024 IEEE Conference on Games (CoG), pages 1–4. IEEE, 2024. - Hu et al. (2022). Edward J Hu, Yelong Shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Shean Wang, Lu Wang, Weizhu Chen, et al. Lora: Low-rank adaptation of large language models. ICLR, 1(2):3, 2022. - Hunicke et al. (2004). Robin Hunicke, Marc LeBlanc, Robert Zubek, et al. Mda: A formal approach to game design and game research. In Proceedings of the AAAI Workshop on Challenges in Game AI, volume 4, page 1722. San Jose, CA, 2004. - Kendall (1938). Maurice G Kendall. A new measure of rank correlation. Biometrika, 30(1-2):81–93, 1938. - Lehrach et al. (2025). Wolfgang Lehrach, Daniel Hennes, Miguel Lazaro-Gredilla, Xinghua Lou, Carter Wendelken, Zun Li, Antoine Dedieu, Jordi Grau-Moya, Marc Lanctot, Atil Iscen, et al. Code world models for general game playing. arXiv preprint arXiv:2510.04542, 2025. - Li et al. (2025). Danrui Li, Sen Zhang, Samuel S Sohn, Kaidong Hu, Muhammad Usman, and Mubbasir Kapadia. Cardiverse: Harnessing llms for novel card game prototyping. In Proceedings of the 2025 Conference on Empirical Methods in Natural Language Processing, pages 29723–29750, 2025. - Li et al. (2016). Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and William B Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the 2016 conference of the North American chapter of the association for computational linguistics: human language technologies, pages 110–119, 2016. - Li et al. (2024). Zhen Li, Xiaohan Xu, Tao Shen, Can Xu, Jia-Chen Gu, Yuxuan Lai, Chongyang Tao, and Shuai Ma. Leveraging large language models for nlg evaluation: Advances and challenges. arXiv preprint arXiv:2401.07103, 2024. - Lin et al. (2025). Wenye Lin, Jonathan Roberts, Yunhan Yang, Samuel Albanie, Zongqing Lu, and Kai Han. Gamebot: Transparent assessment of llm reasoning in games. In Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 7656–7682, 2025. - Lindfors (2025). Joakim Lindfors. Leveraging generative ai to create themed assets for games: A study on narrative and 3d asset creation with ai, 2025. - Ma et al. (2025). Ling Ma, Mingyao Pan, Vince Siu, Xiaoyu Chang, Jussi Holopainen, Jixing Li, and Ray LC. Follow my logic: Generative ai workflows in designing for serious table-top games. In International Conference on Human-Computer Interaction, pages 153–172. Springer, 2025. - Ma et al. (2023). Renkai Ma, Xinning Gui, and Yubo Kou. Multi-platform content creation: the configuration of creator ecology through platform prioritization, content synchronization, and audience management. In Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems, pages 1–19, 2023. - McGinn and Kotamraju (2008). Jennifer McGinn and Nalini Kotamraju. Data-driven persona development. In Proceedings of the SIGCHI conference on human factors in computing systems, pages 1521–1524, 2008. - Niu et al. (2025). Junbo Niu, Zheng Liu, Zhuangcheng Gu, Bin Wang, Linke Ouyang, Zhiyuan Zhao, Tao Chu, Tianyao He, Fan Wu, Qintong Zhang, Zhenjiang Jin, Guang Liang, Rui Zhang, Wenzheng Zhang, Yuan Qu, Zhifei Ren, Yuefeng Sun, Yuanhong Zheng, Dongsheng Ma, Zirui Tang, Boyu Niu, Ziyang Miao, Hejun Dong, Siyi Qian, Junyuan Zhang, Jingzhou Chen, Fangdong Wang, Xiaomeng Zhao, Liqun Wei, Wei Li, Shasha Wang, Ruiliang Xu, Yuanyuan Cao, Lu Chen, Qianqian Wu, Huaiyu Gu, Lindong Lu, Keming Wang, Dechen Lin, Guanlin Shen, Xuanhe Zhou, Linfeng Zhang, Yuhang Zang, Xiaoyi Dong, Jiaqi Wang, Bo Zhang, Lei Bai, Pei Chu, Weijia Li, Jiang Wu, Lijun Wu, Zhenxiang Li, Guangyu Wang, Zhongying Tu, Chao Xu, Kai Chen, Yu Qiao, Bowen Zhou, Dahua Lin, Wentao Zhang, and Conghui He. Mineru2.5: A decoupled vision-language model for efficient high-resolution document parsing, 2025. URL https://arxiv.org/abs/2509.22186. - Park et al. (2023). Joon Sung Park, Joseph O’Brien, Carrie Jun Cai, Meredith Ringel Morris, Percy Liang, and Michael S Bernstein. Generative agents: Interactive simulacra of human behavior. In Proceedings of the 36th annual acm symposium on user interface software and technology, pages 1–22, 2023. - Patrick and Khan (2025). Andrew Patrick and Md Abdullah Al Hafiz Khan. Gamegenesis: A multimodal ai revolution in board game design, 2025. - Rashkin et al. (2025). Hannah Rashkin, Elizabeth Clark, Fantine Huot, and Mirella Lapata. Help me write a story: Evaluating llms’ ability to generate writing feedback. In Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 25827–25847, 2025. - Rodríguez (2025). Carles Moya Rodríguez. Opportunities in the board game market: A strategic analysis through the blue ocean theory, 2025. - Russell et al. (2025). Jenna Russell, Marzena Karpinska, and Mohit Iyyer. People who frequently use chatgpt for writing tasks are accurate and robust detectors of ai-generated text. arXiv preprint arXiv:2501.15654, 2025. - Salminen et al. (2018). Joni Salminen, Bernard J Jansen, Jisun An, Haewoon Kwak, and Soon-gyo Jung. Are personas done? evaluating their usefulness in the age of digital analytics. Persona Studies, 4(2):47–65, 2018. - Salminen et al. (2020). Joni Salminen, Kathleen Guan, Soon-gyo Jung, Shammur A Chowdhury, and Bernard J Jansen. A literature review of quantitative persona creation. In Proceedings of the 2020 CHI conference on human factors in computing systems, pages 1–14, 2020. - Shin et al. (2024). Joongi Shin, Michael A Hedderich, Bartłomiej Jakub Rey, Andrés Lucero, and Antti Oulasvirta. Understanding human-ai workflows for generating personas. In Proceedings of the 2024 ACM Designing Interactive Systems Conference, pages 757–781, 2024. - Tanaka and Simo-Serra (2024). Tsunehiko Tanaka and Edgar Simo-Serra. Grammar-based game description generation using large language models. IEEE Transactions on Games, 2024. - Tang et al. (2025). Wenjie Tang, Yuan Zhou, Erqiang Xu, Keyan Cheng, Minne Li, and Liquan Xiao. Dsgbench: A diverse strategic game benchmark for evaluating llm-based agents in complex decision-making environments. arXiv preprint arXiv:2503.06047, 2025. - Taveekitworachai et al. (2024). Pittawat Taveekitworachai, Kantinan Plupattanakit, and Ruck Thawonmas. Assessing inherent biases following prompt compression of large language models for game story generation. In 2024 IEEE Conference on Games (CoG), pages 1–4. IEEE, 2024. - Todd et al. (2023). Graham Todd, Sam Earle, Muhammad Umair Nasir, Michael Cerny Green, and Julian Togelius. Level generation through large language models. In Proceedings of the 18th International Conference on the Foundations of Digital Games, pages 1–8, 2023. - Todd et al. (2024). Graham Todd, Alexander G Padula, Matthew Stephenson, Éric Piette, Dennis J Soemers, and Julian Togelius. Gavel: Generating games via evolution and language models. Advances in Neural Information Processing Systems, 37:110723–110745, 2024. - Villani et al. (2008). Cédric Villani et al. Optimal transport: old and new, volume 338. Springer, 2008. - Yang et al. (2025). An Yang, Anfeng Li, Baosong Yang, Beichen Zhang, Binyuan Hui, Bo Zheng, Bowen Yu, Chang Gao, Chengen Huang, Chenxu Lv, Chujie Zheng, Dayiheng Liu, Fan Zhou, Fei Huang, Feng Hu, Hao Ge, Haoran Wei, Huan Lin, Jialong Tang, Jian Yang, Jianhong Tu, Jianwei Zhang, Jianxin Yang, Jiaxi Yang, Jing Zhou, Jingren Zhou, Junyang Lin, Kai Dang, Keqin Bao, Kexin Yang, Le Yu, Lianghao Deng, Mei Li, Mingfeng Xue, Mingze Li, Pei Zhang, Peng Wang, Qin Zhu, Rui Men, Ruize Gao, Shixuan Liu, Shuang Luo, Tianhao Li, Tianyi Tang, Wenbiao Yin, Xingzhang Ren, Xinyu Wang, Xinyu Zhang, Xuancheng Ren, Yang Fan, Yang Su, Yichang Zhang, Yinger Zhang, Yu Wan, Yuqiong Liu, Zekun Wang, Zeyu Cui, Zhenru Zhang, Zhipeng Zhou, and Zihan Qiu. Qwen3 technical report. arXiv preprint arXiv:2505.09388, 2025. - Yang and Jin (2025). Dingyi Yang and Qin Jin. What matters in evaluating book-length stories? a systematic study of long story evaluation. In Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 16375–16398, 2025. - Yong and Mitchell (2023). Qing Ru Yong and Alex Mitchell. From playing the story to gaming the system: Repeat experiences of a large language model-based interactive story. In International Conference on Interactive Digital Storytelling, pages 395–409. Springer, 2023. - Yu et al. (2025). Pengfei Yu, Dongming Shen, Silin Meng, Jaewon Lee, Weisu Yin, Andrea Yaoyun Cui, Zhenlin Xu, Yi Zhu, Xingjian Shi, Mu Li, et al. Rpgbench: Evaluating large language models as role-playing game engines. arXiv preprint arXiv:2502.00595, 2025. - Zhang et al. (2025). Yanzhao Zhang, Mingxin Li, Dingkun Long, Xin Zhang, Huan Lin, Baosong Yang, Pengjun Xie, An Yang, Dayiheng Liu, Junyang Lin, et al. Qwen3 embedding: Advancing text embedding and reranking through foundation models. arXiv preprint arXiv:2506.05176, 2025. - Zheng et al. (2025). Mingzhe Zheng, Dingjie Song, Guanyu Zhou, Jun You, Jiahao Zhan, Xuran Ma, Xinyuan Song, Ser-Nam Lim, Qifeng Chen, and Harry Yang. Cml-bench: A framework for evaluating and enhancing llm-powered movie scripts generation. arXiv preprint arXiv:2510.06231, 2025. - Zheng et al. (2024). Yaowei Zheng, Richong Zhang, Junhao Zhang, Yanhan Ye, Zheyan Luo, Zhangchi Feng, and Yongqiang Ma. Llamafactory: Unified efficient fine-tuning of 100+ language models. In Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics (Volume 3: System Demonstrations), Bangkok, Thailand, 2024. Association for Computational Linguistics. URL http://arxiv.org/abs/2403.13372.Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen