Die Entwicklung im Bereich der Künstlichen Intelligenz (KI) schreitet rasant voran und wirft dabei sowohl Chancen als auch Herausforderungen auf. In diesem kompakten Update beleuchten wir die jüngsten Entwicklungen rund um Mira Murati, das ehemalige Gesicht von OpenAI, die Rolle von "Reasoning" in der KI, den Einsatz von KI im Unterricht sowie die Grenzen aktueller KI-Systeme bei der Reiseplanung.
Mira Murati, die ehemalige CTO von OpenAI, sorgt für Aufsehen in der KI-Branche. Nach ihrem Ausscheiden bei OpenAI plant sie die Gründung eines eigenen KI-Startups und sammelt dafür bereits fleißig Kapital ein. Murati, die unter anderem durch die Vorstellung von GPT-4 bekannt wurde, gilt als eine der prominentesten Persönlichkeiten der Branche und dürfte bei Investoren auf offene Ohren stoßen. Details zu ihrem neuen Projekt sind zwar noch rar, es soll sich aber auf proprietäre KI-Modelle konzentrieren. Muratis Weggang reiht sich ein in eine Reihe von Abgängen hochrangiger Mitarbeiter bei OpenAI, die neue Herausforderungen bei Konkurrenten oder in eigenen Unternehmen suchen.
Forscher von Apple haben die "Reasoning"-Fähigkeiten aktueller KI-Systeme, insbesondere großer Sprachmodelle (LLMs), genauer unter die Lupe genommen. Ihr Ergebnis: Von echtem logischen Denken kann (noch) keine Rede sein. Die Wissenschaftler untersuchten die mathematischen Fähigkeiten der LLMs und stellten fest, dass diese meist auf fortschrittlichem Pattern-Matching basieren, um Antworten zu generieren. Sobald die Nutzeranfragen jedoch ungenau formuliert sind oder irrelevante Informationen enthalten, stoßen die Systeme an ihre Grenzen und liefern teils deutlich abweichende Ergebnisse. Die Apple-Forscher vermuten, dass LLMs die "Reasoning"-Schritte aus den Trainingsdaten lediglich imitieren, anstatt tatsächlich logisch zu denken.
Der Einsatz von KI-Tools im Schulunterricht wirft Fragen auf. Studien der Universität Lund zeigen, dass ältere Schüler deutlich häufiger KI-Chatbots für Hausaufgaben nutzen als jüngere. Besonders interessant: Jugendliche mit Problemen bei ihren sogenannten Exekutivfunktionen, also kognitiven Prozessen wie Planung oder Flexibilität, empfinden KI-Tools als besonders hilfreich. Die Forscher sehen diese Entwicklung zwiespältig. Einerseits könnten KI-Tools Schülern mit Lernschwierigkeiten helfen, Aufgaben besser zu bewältigen. Andererseits warnen sie vor negativen Auswirkungen auf die kognitive Entwicklung, wenn die Tools als Lernersatz missbraucht werden.
Selbst fortschrittliche KI-Sprachmodelle tun sich mit komplexen Planungsaufgaben, wie beispielsweise der Reiseplanung, noch schwer. Eine aktuelle Studie zeigt, dass selbst Modelle wie GPT-4 oder o1-Preview bei realitätsnahen Reiseplanungs-Szenarien nur sehr geringe Erfolgsquoten erzielen. Die Forscher identifizierten zwei zentrale Schwachstellen: Erstens berücksichtigen die KI-Systeme vorgegebene Regeln und Bedingungen nur unzureichend, und zweitens verlieren sie mit zunehmender Planungsdauer den Fokus auf die eigentliche Aufgabe.
Im Konkurrenzkampf der KI-Modelle positioniert Google sein Recherche-Tool NotebookLM als ernstzunehmende Alternative zu ChatGPT. Das Tool wurde mit neuen Funktionen ausgestattet, darunter KI-generierte Podcast-Diskussionen, die auf bereitgestellten Texten basieren. NotebookLM greift dabei ausschließlich auf die vom Nutzer bereitgestellten Quellen zurück, was die Verlässlichkeit der Informationen erhöhen soll.
Die Entwicklungen im Bereich der Künstlichen Intelligenz sind vielversprechend, aber auch mit Herausforderungen verbunden. Während KI-Systeme in Teilbereichen bereits beeindruckende Leistungen erbringen, stoßen sie bei komplexen Aufgaben wie dem logischen Denken oder der Reiseplanung noch an ihre Grenzen. Der verantwortungsvolle Umgang mit KI, insbesondere im Bildungsbereich, ist entscheidend, um die Chancen der Technologie zu nutzen und gleichzeitig ihre Risiken zu minimieren.