Debatte im US-Senat zur Regulierung und Sicherheit von AGI-Systemen

Kategorien:
No items found.
Freigegeben:
September 19, 2024
Artikel über AGI-Systeme und US-Senat

Warnung vor AGI-Systemen: Ehemaliger OpenAI-Mitarbeiter spricht vor US-Senat

Einführung

Die Debatte über die Entwicklung und Regulierung von Künstlicher Intelligenz (KI) hat in den letzten Jahren an Intensität gewonnen. Besonders die Entwicklung von Künstlicher Allgemeiner Intelligenz (AGI) steht im Fokus. AGI bezeichnet ein KI-System, das kognitive Fähigkeiten auf menschlichem Niveau erreichen kann. Ein ehemaliger Mitarbeiter von OpenAI hat kürzlich vor dem US-Senat gewarnt, dass ein solches System in nur drei Jahren entwickelt werden könnte. Diese Warnung hat weitreichende Implikationen für die Sicherheit und Ethik von KI.

Details der Anhörung

William Saunders, ein ehemaliger Mitarbeiter von OpenAI, äußerte sich während einer Senatsanhörung äußerst kritisch über die Sicherheitspraktiken seines früheren Arbeitgebers. Saunders behauptete, dass OpenAI die Sicherheit zugunsten einer schnellen Entwicklung von KI vernachlässige.

"Ohne rigorose Tests könnten Entwickler gefährliche Fähigkeiten übersehen," warnte Saunders. Er führte ein Beispiel an, bei dem ein neues KI-System von OpenAI Experten bei der Planung der Reproduktion einer bekannten biologischen Bedrohung hätte unterstützen können.

Risiken und Sicherheitsbedenken

Nach Saunders könnte ein AGI-System in nur drei Jahren entwickelt werden. Er verwies auf die Leistung von OpenAI's kürzlich veröffentlichtem o1-Modell in Mathematik- und Programmierwettbewerben als Beweis: "OpenAI’s neues System springt von einem Scheitern zur Qualifikation bis hin zum Gewinn einer Goldmedaille und übertrifft mich in einem Bereich, der für meine eigene Arbeit relevant ist. Es gibt noch erhebliche Lücken zu schließen, aber ich halte es für plausibel, dass ein AGI-System in nur drei Jahren entwickelt werden könnte."

Ein solches System könnte die meisten wirtschaftlich wertvollen Arbeiten besser als Menschen ausführen, was erhebliche Risiken wie autonome Cyberangriffe oder Unterstützung bei der Entwicklung biologischer Waffen mit sich bringen könnte.

Kritik an internen Sicherheitsmaßnahmen

Saunders kritisierte auch die internen Sicherheitsmaßnahmen von OpenAI. "Als ich bei OpenAI war, gab es lange Zeiträume, in denen es Sicherheitslücken gab, die es mir oder Hunderten anderer Ingenieure im Unternehmen ermöglicht hätten, Zugangskontrollen zu umgehen und die fortschrittlichsten KI-Systeme des Unternehmens, einschließlich GPT-4, zu stehlen," sagte er.

Rufe nach stärkerer Regulierung

Um Risiken zu minimieren, forderte Saunders stärkere Regulierungen der KI-Industrie. "Wenn irgendeine Organisation Technologie entwickelt, die erhebliche Risiken für alle birgt, müssen die Öffentlichkeit und die wissenschaftliche Gemeinschaft in die Entscheidung einbezogen werden, wie diese Risiken vermieden oder minimiert werden können," betonte er.

Weitere Kritiker

Helen Toner, ehemalige Vorstandsmitglied von OpenAI, kritisierte ebenfalls die fragilen internen Kontrollmechanismen der Unternehmen. Sie berichtete von Fällen, in denen Sicherheitsbedenken ignoriert wurden, um Produkte schneller auf den Markt zu bringen. Toner erklärte, es sei unmöglich, dass Unternehmen die Interessen der Allgemeinheit vollständig berücksichtigen könnten, wenn sie allein für detaillierte Entscheidungen über Sicherheitsmaßnahmen verantwortlich seien.

David Evan Harris, ein ehemaliger Mitarbeiter von Meta, kritisierte die Reduzierung der Sicherheitsteams in der gesamten Branche. Er warnte davor, sich auf freiwillige Selbstregulierung zu verlassen, und forderte verbindliche gesetzliche Regelungen.

Empfehlungen der Experten

Die Experten forderten einstimmig eine stärkere staatliche Regulierung der KI-Industrie, einschließlich verpflichtender Transparenzanforderungen für Hochrisiko-KI-Systeme, erhöhter Investitionen in die Forschung zur KI-Sicherheit, den Aufbau eines robusten Ökosystems für unabhängige Audits, verbesserten Schutz für Whistleblower, erhöhter technischer Expertise in Regierungsbehörden und Klarstellung der Haftung für KI-bedingte Schäden.

Die Experten betonten, dass angemessene Regulierung die Innovation nicht behindern, sondern fördern würde. Klare Regeln würden das Vertrauen der Verbraucher stärken und Unternehmen Planungssicherheit geben.

Reaktionen und Maßnahmen

Senator Richard Blumenthal, Vorsitzender des Unterausschusses, kündigte an, dass er bald einen Gesetzentwurf zur Regulierung von KI vorlegen werde. Die Kritik von Saunders und anderen ist Teil einer Reihe von Warnungen ehemaliger OpenAI-Mitarbeiter. Erst kürzlich wurde bekannt, dass OpenAI offenbar die Sicherheitstests für sein KI-Modell GPT-4 Omni verkürzt hatte. Laut einem Bericht der Washington Post sollen die Tests in nur einer Woche abgeschlossen worden sein, was bei einigen Mitarbeitern Unmut hervorrief.

OpenAI wies die Vorwürfe zurück und erklärte, dass das Unternehmen "keine Abkürzungen in unserem Sicherheitsprozess" genommen habe und "umfassende interne und externe" Tests durchgeführt habe, um politische Verpflichtungen zu erfüllen.

Seit November letzten Jahres hat OpenAI mehrere Mitarbeiter verloren, die an der KI-Sicherheit arbeiteten, darunter den ehemaligen Chefwissenschaftler Ilya Sutskever und Jan Leike, die gemeinsam das Superalignment-Team leiteten.

Diese Woche stellte OpenAI ein neues "Sicherheits- und Sicherheitskomitee" unter der Leitung von Zico Kolter vor, das weitreichende Befugnisse zur Überwachung der Sicherheitsmaßnahmen bei der Entwicklung und Einführung von KI-Modellen hat. Vor einigen Wochen hatte OpenAI eine Vereinbarung mit dem US National Institute of Standards and Technology (NIST) getroffen, die dem US AI Safety Institute Zugang zu neuen KI-Modellen vor und nach ihrer Veröffentlichung gewährt, um gemeinsam an der Erforschung, Prüfung und Bewertung der KI-Sicherheit zu arbeiten.

Fazit

Die Aussagen von William Saunders und anderen ehemaligen Mitarbeitern von OpenAI verdeutlichen die dringende Notwendigkeit einer umfassenden Regulierung der KI-Industrie. Die potenziellen Risiken, die von AGI-Systemen ausgehen, erfordern Maßnahmen zur Gewährleistung der Sicherheit und zur Minimierung von Missbrauchsmöglichkeiten. Die Forderungen nach stärkeren staatlichen Eingriffen und verbindlichen Regeln spiegeln die wachsenden Bedenken wider, dass die schnelle Entwicklung von KI-Technologien ohne angemessene Sicherheitsvorkehrungen erhebliche Gefahren für die Gesellschaft mit sich bringen könnte.

Bibliographie

- https://www.judiciary.senate.gov/imo/media/doc/2024-09-17_pm_-_testimony_-_saunders.pdf - https://www.techtarget.com/searchcio/news/366610955/Former-OpenAI-associates-fear-AGI-lack-of-US-AI-policy - https://www.reddit.com/r/singularity/comments/1fk82a7/ai_discusses_possibility_of_agi_in_three_years/ - https://www.c-span.org/video/?538459-1/google-openai-employees-testify-artificial-intelligence-regulation - https://www.youtube.com/watch?v=dzQlRt3y5mU - https://www.theguardian.com/technology/article/2024/aug/03/open-ai-sam-altman-chatgpt-gary-marcus-taming-silicon-valley - https://www.nytimes.com/2024/06/04/technology/openai-culture-whistleblowers.html - https://www.reuters.com/technology/sam-altmans-ouster-openai-was-precipitated-by-letter-board-about-ai-breakthrough-2023-11-22/ - https://www.youtube.com/watch?v=WLJJsIy1x44 - https://techpolicy.press/senate-homeland-security-committee-considers-philosophy-of-artificial-intelligence
Was bedeutet das?