Ehemaliger OpenAI Mitarbeiter warnt US Senat vor Risiken durch AGI-Entwicklung

Kategorien:
No items found.
Freigegeben:
September 19, 2024
Artikel über AGI-Systeme

Warnung vor möglichen AGI-Systemen innerhalb von drei Jahren: Ehemaliger OpenAI-Mitarbeiter informiert US-Senat

Einführung

In einer jüngsten Anhörung vor dem US-Senat äußerten ehemalige Mitarbeiter von OpenAI und anderen Technologiegiganten ernsthafte Bedenken hinsichtlich der Sicherheitspraktiken dieser Unternehmen. Sie warnten vor den potenziellen Gefahren, die von fortschrittlicher künstlicher Intelligenz ausgehen könnten.

Ernste Vorwürfe gegen OpenAI

William Saunders, ein ehemaliger Mitarbeiter von OpenAI, machte während der Senatsanhörung schwere Vorwürfe gegen seinen früheren Arbeitgeber. Saunders behauptete, dass OpenAI die Sicherheit zugunsten einer schnellen Entwicklung der künstlichen Intelligenz vernachlässige.

"Ohne rigorose Tests könnten Entwickler gefährliche Fähigkeiten übersehen," warnte Saunders. Er führte ein Beispiel an, bei dem das neue AI-System von OpenAI Experten bei der Planung der Reproduktion einer bekannten biologischen Bedrohung unterstützen könnte.

Potenziale und Risiken von AGI

Nach Saunders könnte ein System der allgemeinen künstlichen Intelligenz (AGI) in nur drei Jahren entwickelt werden. Er verwies auf die Leistung des kürzlich veröffentlichten o1-Modells von OpenAI in Mathematik- und Programmierwettbewerben als Beweis: "Das neue System von OpenAI springt von 'nicht qualifiziert' zu 'Goldmedaillengewinner' und übertrifft mich in einem Bereich, der für meinen eigenen Job relevant ist. Es gibt noch erhebliche Lücken zu schließen, aber ich halte es für plausibel, dass ein AGI-System in nur drei Jahren entwickelt werden könnte."

Ein solches System könnte die meisten wirtschaftlich wertvollen Arbeiten besser als Menschen ausführen, was erhebliche Risiken wie autonome Cyberangriffe oder die Unterstützung bei der Entwicklung biologischer Waffen mit sich brächte.

Kritik an internen Sicherheitsmaßnahmen

Saunders kritisierte auch die internen Sicherheitsmaßnahmen von OpenAI. "Als ich bei OpenAI war, gab es lange Zeiträume, in denen es Schwachstellen gab, die es mir oder Hunderten anderer Ingenieure im Unternehmen ermöglicht hätten, Zugangskontrollen zu umgehen und die fortschrittlichsten AI-Systeme des Unternehmens, einschließlich GPT-4, zu stehlen," sagte er.

Forderung nach stärkerer Regulierung

Um Risiken zu minimieren, forderte Saunders eine stärkere Regulierung der AI-Industrie. "Wenn irgendeine Organisation Technologie entwickelt, die erhebliche Risiken für alle mit sich bringt, müssen die Öffentlichkeit und die wissenschaftliche Gemeinschaft in die Entscheidung darüber einbezogen werden, wie diese Risiken vermieden oder minimiert werden können," betonte er.

Weitere Kritik von ehemaligen OpenAI-Mitarbeitern

Auch Helen Toner, ein ehemaliges Vorstandsmitglied von OpenAI, kritisierte die fragilen internen Kontrollmechanismen der Unternehmen. Sie berichtete von Fällen, in denen Sicherheitsbedenken ignoriert wurden, um Produkte schneller auf den Markt zu bringen. Toner erklärte, es sei unmöglich, dass Unternehmen die Interessen der Allgemeinheit vollständig berücksichtigen könnten, wenn sie allein für detaillierte Entscheidungen über Sicherheitsmaßnahmen verantwortlich sind.

David Evan Harris, ein ehemaliger Mitarbeiter von Meta, kritisierte die Reduzierung von Sicherheitsteams in der gesamten Branche. Er warnte davor, sich auf freiwillige Selbstregulierung zu verlassen und forderte verbindliche gesetzliche Regelungen.

Empfehlungen der Experten

Die Experten forderten einstimmig eine stärkere staatliche Regulierung der AI-Industrie, einschließlich verbindlicher Transparenzanforderungen für hochriskante AI-Systeme, erhöhter Investitionen in die Forschung zur AI-Sicherheit, dem Aufbau eines robusten Ökosystems für unabhängige Prüfungen, verbessertem Schutz für Whistleblower, erhöhter technischer Expertise in Regierungsbehörden und Klarstellungen zur Haftung für AI-bezogene Schäden.

Die Experten betonten, dass eine angemessene Regulierung die Innovation nicht behindern, sondern fördern würde. Klare Regeln würden das Vertrauen der Verbraucher stärken und den Unternehmen Planungssicherheit geben.

Reaktion des US-Senats

Senator Richard Blumenthal, Vorsitzender des Unterausschusses, kündigte an, dass er bald einen Gesetzentwurf zur AI-Regulierung vorlegen werde.

OpenAI und die Zusammenarbeit mit der US-Regierung

Die Kritik von Saunders und anderen ist Teil einer Reihe von Warnungen ehemaliger OpenAI-Mitarbeiter. Erst kürzlich wurde bekannt, dass OpenAI offenbar die Sicherheitstests für sein AI-Modell GPT-4 Omni verkürzt hatte. Laut einem Bericht der Washington Post sollen die Tests in nur einer Woche abgeschlossen worden sein, was bei einigen Mitarbeitern für Unmut sorgte.

OpenAI wies die Vorwürfe zurück und erklärte, das Unternehmen habe "keine Abkürzungen in unserem Sicherheitsprozess" genommen und "umfassende interne und externe" Tests durchgeführt, um politische Verpflichtungen zu erfüllen.

Seit November letzten Jahres hat OpenAI mehrere Mitarbeiter verloren, die an der AI-Sicherheit arbeiteten, darunter der ehemalige Chef-Wissenschaftler Ilya Sutskever und Jan Leike, die gemeinsam das Superalignment-Team leiteten.

Diese Woche stellte OpenAI ein neues "Sicherheits- und Sicherheitsausschuss" unter der Leitung von Zico Kolter vor, das weitreichende Befugnisse zur Überwachung der Sicherheitsmaßnahmen bei der Entwicklung und Einführung von AI-Modellen hat. Wenige Wochen zuvor hatte OpenAI eine Vereinbarung mit dem US National Institute of Standards and Technology (NIST) getroffen, die dem US AI Safety Institute Zugang zu neuen AI-Modellen vor und nach deren Veröffentlichung gewährt, um gemeinsam an der Forschung, Prüfung und Bewertung der AI-Sicherheit zu arbeiten.

Zusammenfassung

William Saunders, ein ehemaliger OpenAI-Entwickler, kritisierte die Sicherheitspraktiken des Unternehmens in einer Anhörung vor dem US-Senat. Er warnte vor den potenziellen Gefahren der künstlichen Intelligenz und forderte mehr Transparenz und unabhängige Kontrollen.

Nach Saunders vernachlässige OpenAI die Sicherheit zugunsten einer schnellen AI-Entwicklung. Er führte Beispiele für potenzielle Risiken an, wie die Unterstützung bei der Reproduktion biologischer Bedrohungen oder autonome Cyberangriffe. Er kritisierte auch Schwächen in den internen Sicherheitsmaßnahmen von OpenAI.

Neben Saunders äußerten drei weitere ehemalige Mitarbeiter führender AI-Unternehmen Bedenken hinsichtlich der Sicherheitsstandards in der Branche. Sie forderten eine stärkere staatliche Regulierung, einschließlich verbindlicher Transparenzanforderungen und erhöhter Investitionen in die Forschung zur AI-Sicherheit.

Quellen

- https://www.judiciary.senate.gov/imo/media/doc/2024-09-17_pm_-_testimony_-_saunders.pdf - https://www.techtarget.com/searchcio/news/366610955/Former-OpenAI-associates-fear-AGI-lack-of-US-AI-policy - https://www.reddit.com/r/singularity/comments/1fk82a7/ai_discusses_possibility_of_agi_in_three_years/ - https://www.c-span.org/video/?538459-1/google-openai-employees-testify-artificial-intelligence-regulation - https://www.youtube.com/watch?v=dzQlRt3y5mU - https://www.theguardian.com/technology/article/2024/aug/03/open-ai-sam-altman-chatgpt-gary-marcus-taming-silicon-valley - https://www.nytimes.com/2024/06/04/technology/openai-culture-whistleblowers.html - https://www.reuters.com/technology/sam-altmans-ouster-openai-was-precipitated-by-letter-board-about-ai-breakthrough-2023-11-22/ - https://www.youtube.com/watch?v=WLJJsIy1x44 - https://techpolicy.press/senate-homeland-security-committee-considers-philosophy-of-artificial-intelligence
Was bedeutet das?