Ilya Sutskever, einer der Mitbegründer von OpenAI und einer der führenden Köpfe in der Entwicklung künstlicher Intelligenz, hat ein neues Projekt ins Leben gerufen. Nach seinem Abgang bei OpenAI steht nun Safe Superintelligence im Fokus seiner Bemühungen. Dieses neue Start-up hat sich das Ziel gesetzt, eine ungefährliche und dennoch hochentwickelte künstliche Intelligenz zu entwickeln. Die Vision ist es, eine sogenannte Superintelligenz zu schaffen, die keine Risiken für die Menschheit birgt.
Sutskevers Motivation für die Gründung von Safe Superintelligence liegt in den zunehmenden Bedenken hinsichtlich der Risiken, die mit leistungsstarken KI-Systemen einhergehen. Die Frage, ob solche Systeme gefährlich werden könnten, wenn sie einmal leistungsstärker und eigenständiger sind, beschäftigt die Branche schon seit Jahren. Experten und Regierungen warnen immer wieder vor den potenziellen Gefahren und suchen nach Wegen, diese durch strikte Vorgaben und Meldungspflichten zu minimieren.
Safe Superintelligence will sich von kommerziellem Druck und einem Wettlauf mit anderen KI-Laboren entziehen. „Das Besondere an dem Unternehmen ist, dass sein erstes Produkt die sichere Superintelligenz sein wird – und es davor nichts anderes herausbringen wird“, sagte Sutskever dem Finanzdienst Bloomberg. Diese Fokussierung soll sicherstellen, dass keine Kompromisse in der Sicherheit eingegangen werden.
Neben Sutskever gehören auch Daniel Gross und Daniel Levy zu den Gründern von Safe Superintelligence. Gross arbeitete einst an künstlicher Intelligenz bei Apple, während Levy zuvor mit Sutskever bei OpenAI tätig war. Dieses Trio bringt geballtes Wissen und Erfahrung in das neue Vorhaben ein.
Sutskever, der als Forschungschef bei OpenAI tätig war, hat eine bewegte Vergangenheit in der KI-Branche. Im vergangenen Jahr war er an dem überraschenden Rauswurf des OpenAI-Chefs Sam Altman beteiligt, der nach Druck von Mitarbeitern und dem Großinvestor Microsoft jedoch bald rückgängig gemacht wurde. Nach diesem Vorfall blieb Sutskever im Hintergrund und verließ OpenAI im Mai.
Wie sich Sutskevers neues Superintelligenz-Labor finanzieren wird, blieb bisher unklar. Die Vision für das neue Unternehmen ist jedoch eine Rückkehr zu den Wurzeln von OpenAI als ein nicht auf Profit ausgerichtetes Forschungslabor. OpenAI kam einige Jahre nach der Gründung zu dem Schluss, dass man sich ohne ein kommerzielles Produkt nicht über Wasser halten könne, was zu einem milliardenschweren Pakt mit Microsoft und der Veröffentlichung von ChatGPT führte.
Der Begriff „Künstliche Intelligenz“ ist seit den 1950er-Jahren im Wandel. Die ersten erfolgreichen Versuche gab es in den 1950er-Jahren, und durch Backpropagation gelang es in den 1980er-Jahren erstmals, neuronale Netzwerke herzustellen, die effektiv lernen konnten. Einen Wendepunkt in der Geschichte der KI stellte die Entwicklung und Veröffentlichung von AlexNet im Jahr 2012 dar, die eine Welle des Interesses und der Forschung einleitete.
Seit der Veröffentlichung des Transformer-Papers „Attention is all you need“ im Jahr 2017 ist Generative Künstliche Intelligenz (GAI) die wohl wichtigste Technologie der Gegenwart. Große Tech-Konzerne und neue Unternehmen investieren Milliarden in die Entwicklung von LLMs und damit verbundenen Technologien. Die Veröffentlichung von GPT-3.5 im November 2022 war das Ergebnis jahrzehntelanger Forschungs- und Entwicklungsarbeit.
Über Jahrzehnte fand die Entwicklung der KI auf Universitäten und in wissenschaftlichen Kreisen statt. Heute passiert die Forschung und Weiterentwicklung auf diesem Gebiet zum Großteil in US-amerikanischen Konzernen oder auch in finanziell sehr gut ausgestatteten und rasant wachsenden US-Start-ups – und die Ergebnisse werden nicht mehr geteilt, sondern als Geheimnisse gehütet. Diese Entwicklung stellt Europa vor große Herausforderungen.
Safe Superintelligence unter der Leitung von Ilya Sutskever setzt sich ambitionierte Ziele. Die Entwicklung einer sicheren Superintelligenz könnte einen bedeutenden Fortschritt für die Menschheit darstellen, wenn es gelingt, die damit verbundenen Risiken zu minimieren. Mit einem starken Team und einer klaren Vision könnte dieses neue Start-up einen wichtigen Beitrag zur Zukunft der künstlichen Intelligenz leisten.
Bibliographie
- https://t3n.de/news/safe-superintelligence-openai-sutskever-1631388/
- https://www.welt.de/newsticker/dpa_nt/infoline_nt/netzwelt/article252117038/OpenAI-Mitgruender-Superintelligenz-ohne-Risiko-ist-das-Ziel.html
- https://www.handelsblatt.com/technik/ki/neugruendung-openai-mitgruender-sutskever-gruendet-start-up-fuer-sicheresuper-ki/100046578.html
- https://www.handelsblatt.com/themen/kuenstliche-intelligenz
- https://1e9.community/t/ex-chefwissenschaftler-von-openai-gruendet-konkurrenzunternehmen-zur-entwicklung-sicherer-super-ki/20393
- https://eco.hu/nemzetkozi-lapszemle/
- https://superintelligenz.eu/infos/
- https://www.wiwo.de/
- https://cris.unibo.it/retrieve/1efac1a1-2882-4c22-899e-4f6a624dda4e/esposito-unruhe-kern-144-es.pdf