Die Welt der Künstlichen Intelligenz (KI) entwickelt sich rasant weiter. Von neuen Produkten und Partnerschaften bis hin zu ethischen Debatten und bahnbrechenden Forschungsergebnissen - die Branche steht nie still. In diesem Artikel werfen wir einen Blick auf einige der aktuellsten Entwicklungen, die die KI-Landschaft prägen.
Auf der Meta Connect 2024 präsentierte Mark Zuckerberg die neuesten Errungenschaften seines Unternehmens, wobei der Schwerpunkt deutlich auf Künstlicher Intelligenz lag. Trotz des anhaltenden Engagements für das Metaverse standen neue KI-Funktionen und -Geräte im Mittelpunkt.
Die VR-Brille Quest 3S erweitert die Produktfamilie um eine erschwinglichere Variante, die dennoch die gleichen Funktionen wie das Topmodell bietet. Auch die Ray-Ban Smartglasses erhalten ein KI-Upgrade mit Sprachsteuerung, QR-Code-Scanner und Echtzeitübersetzung.
Der KI-Assistent Meta AI wird mit der Fähigkeit, Bilder zu analysieren und zu sprechen, noch intelligenter. In den USA kann Meta AI sogar Fotos im Chat bearbeiten. Mit Llama 3.2 veröffentlicht Meta die nächste Generation seines Open-Source-Modells, das erstmals auch Bildverarbeitung beherrscht.
Zuckerberg überraschte zudem mit dem Prototyp einer Augmented-Reality-Brille namens Orion. An dieser Brille, die Hologramme projizieren, Augenbewegungen verfolgen und Sprache verstehen soll, arbeitet Meta bereits seit einem Jahrzehnt. Ein Veröffentlichungsdatum wurde noch nicht bekannt gegeben.
Mehr als 115 Unternehmen, darunter namhafte KI-Entwickler wie Aleph Alpha, Google, Microsoft und OpenAI, aber auch Anwender aus verschiedenen Branchen, haben sich freiwillig einem europäischen KI-Pakt angeschlossen. Mit ihrer Unterschrift verpflichten sie sich, die Prinzipien der neuen KI-Verordnung der EU bereits vor deren vollständigem Inkrafttreten zu respektieren.
Die Unternehmen erklären sich bereit, die Einführung von KI verantwortungsvoll zu gestalten und auf die Einhaltung des AI Acts hinzuarbeiten. Risikoreiche KI-Systeme sollen frühzeitig erkannt und die Expertise der Mitarbeiter im Bereich ethische KI-Entwicklung gestärkt werden. Etwa die Hälfte der Unterzeichner verspricht außerdem, menschliche Kontrolle zu gewährleisten, Risiken zu minimieren und KI-generierte Inhalte zu kennzeichnen.
Der Pakt geht auf eine Initiative des ehemaligen EU-Kommissars Thierry Breton zurück. Ob die neue Kommission dem Pakt die gleiche Bedeutung beimisst, ist noch offen. Der AI Act ist zwar am 1. August in Kraft getreten, viele Bestimmungen unterliegen jedoch Übergangsfristen.
Der Entwickler des bekannten Chatbots ChatGPT, OpenAI, muss den nächsten Weggang aus der Führungsetage verkraften. Technologievorstand Mira Murati, die maßgeblich zum Erfolg des Unternehmens beigetragen hat, hat ihren Rücktritt bekannt gegeben. Sie wolle sich eigenen Forschungsprojekten widmen, erklärte Murati auf der Plattform X. Sie bedankte sich bei OpenAI-Chef Sam Altman und ließ keine Zweifel an einem möglichen Zerwürfnis aufkommen. Murati war im vergangenen November vorübergehend zur Chefin von OpenAI ernannt worden, nachdem der Verwaltungsrat Altman aufgrund von Sicherheitsbedenken abgesetzt hatte. Wenige Tage später kehrte der Mitgründer jedoch auf Druck von Mitarbeitern und dem Großinvestor Microsoft auf seinen Posten zurück. Murati stellte sich hinter ihn.
Bereits im Mai hatte Forschungsleiter Ilya Sutskever, der eine Rolle bei Altmans Absetzung gespielt hatte, OpenAI verlassen. Er gründete das Start-up Safe Superintelligence, das sich der Entwicklung einer sicheren, hochentwickelten KI verschrieben hat. Ein weiterer OpenAI-Mitgründer, John Schulman, wechselte zum Konkurrenten Anthropic. Wohin es Murati zieht, ist noch nicht bekannt.
Forschende der Stanford University haben mit STORM ein KI-System entwickelt, das die Vorarbeit beim Verfassen von Wikipedia-Artikeln automatisiert. STORM kann selbstständig zu einem Thema recherchieren, relevante Quellen zusammentragen und eine detaillierte Gliederung erstellen.
Das System gliedert die Aufgabe in zwei Schritte: Zunächst recherchiert es zu einem Thema, sammelt Referenzen und erstellt eine Gliederung. Anschließend nutzt es diese Informationen, um den vollständigen Artikel zu verfassen. Der Kern von STORM ist ein Mechanismus, der das KI-Sprachmodell dazu anleitet, effektive Fragen zur Recherche eines Themas zu stellen. Dazu nutzt es perspektivisches Fragen und simulierte Gespräche mit Experten.
In einer Bewertung durch Wikipedia-Autoren schnitt STORM besser ab als vergleichbare Systeme. Die generierten Artikel wurden als strukturierter und umfassender gelobt. Allerdings zeigte sich auch, dass STORM die Voreingenommenheit der Quellen teilweise übernimmt und manchmal unabhängige Fakten miteinander verknüpft. Dennoch sehen die Forschenden in STORM einen vielversprechenden Ansatz, um die Erstellung fundierter Artikel zu erleichtern.
Wissenschaftler der ETH Zürich haben eine Methode entwickelt, um Googles reCAPTCHA v2-System mit einer Erfolgsquote von 100 Prozent zu umgehen. Sie nutzen dafür fortschrittliche Modelle zur Bildsegmentierung und -klassifizierung. Den Forschern gelang es, alle drei Aufgabentypen von reCAPTCHA v2 vollständig zu lösen, was einen deutlichen Fortschritt gegenüber früheren Studien mit Erfolgsquoten von 68 bis 71 Prozent darstellt.
Die Ergebnisse stellen die Zukunft bildbasierter CAPTCHAs infrage, die eigentlich sicherstellen sollen, dass ein Online-Nutzer ein Mensch und kein Bot ist. Die Forschenden empfehlen, in zukünftigen Studien den Datensatz für Segmentierungsaufgaben zu erweitern und die Schwelle für eine mögliche Sperrung bei wiederholtem CAPTCHA-Lösen zu untersuchen. Sie sehen ihre Arbeit als Beitrag zur Verbesserung der digitalen Sicherheit.
Der Technologiekonzern Bosch setzt generative KI auf Basis verschiedener Standardmodelle wie GPT von OpenAI und LLaMA von Meta ein, um das interne Fachwissen über natürliche Sprache zugänglich zu machen. Andreas Nauerz, Abteilungsleiter bei Bosch Digital, erklärte auf dem AI Summit des IT-Verbands Bitkom in Berlin, dass es darum gehe, Informationen aus Handbüchern und Online-Ressourcen einfacher auffindbar und jederzeit verfügbar zu machen. Gleichzeitig müssten aber das geistige Eigentum und die digitale Souveränität des Unternehmens geschützt werden.
Daher setzt Bosch auf eine Kooperation mit dem deutschen KI-Start-up Aleph Alpha, an dem der Konzern auch finanziell beteiligt ist. Laut Aleph-Alpha-Gründer Jonas Andrulis sei eine Technologie notwendig, "die mit Menschen funktioniert", deren Kontrolle bewahrt und gleichzeitig das Expertenwissen im KI-System hält. Aleph Alpha hat mit PhariaAI ein solches System vorgestellt, das als eine Art Betriebssystem für generative KI fungieren soll. Bosch nutzt dafür unter anderem das eigene Sprachmodell Pharia-1-LLM als Basis. Natürlich sei "kein Allzweckmodell so intelligent wie die Experten von Bosch", so Nauerz. PhariaAI habe jedoch in einem Test deutlich besser als die Konkurrenz abgeschnitten, um dieser speziellen generativen KI Deutsch beizubringen. So könne das Know-how von Bosch nun besser "in der Logik der Anwendung eingefangen werden", ohne dass es nach außen dringe.
Ein Forschungsteam der Stanford University, Activision Blizzard, Nvidia, der University of Washington und der Cornell University hat den Bot MLMOVE für den Ego-Shooter Counter-Strike: Global Offensive entwickelt. Dieser Bot imitiert die Bewegungen professioneller Spieler, nachdem er mit Hilfe von Imitationslernen auf Basis von 123 Stunden Profi-Gameplay trainiert wurde.
Für das Training erstellten die Wissenschaftler einen Datensatz mit Informationen aus über 17.000 Runden professioneller Spiele. Ein Bewegungsmodell sagt daraus Bewegungsbefehle voraus und wird mit einem Ziel- und Schießsystem zum MLMOVE-Bot kombiniert. Analysen zeigten, dass sich MLMOVE bei der Kartenausnutzung, Taktiken und Spielergebnissen menschenähnlicher verhält als bisherige Bots. Die Technologie könnte in Zukunft zu anspruchsvolleren KI-Gegnern in kompetitiven Spielen und im E-Sport-Training führen. Allerdings ist MLMOVE bisher auf eine Karte in einem bestimmten Spielmodus beschränkt.