In der sich ständig weiterentwickelnden Welt der Technologie gibt es nur wenige Prinzipien, die so einflussreich waren wie Moores Gesetz. Dieses Gesetz, das 1965 von Gordon Moore, Mitbegründer von Intel, postuliert wurde, besagt, dass sich die Anzahl der Transistoren auf einem Mikrochip etwa alle zwei Jahre verdoppelt, was zu schnellen Fortschritten in der Rechenleistung führt. Doch laut Jensen Huang, CEO von Nvidia, sind die Fortschritte im Bereich der künstlichen Intelligenz (KI) auf einem Niveau angelangt, das Moores Gesetz weit übertrifft.
Jensen Huang, CEO von Nvidia, hat kürzlich in einem Gespräch mit Marc Benioff, CEO von Salesforce, seine Ansichten zur aktuellen Entwicklung der künstlichen Intelligenz und deren Geschwindigkeit geäußert. Huang erklärte, dass die Fortschritte in der KI weit über das hinausgehen, was Moores Gesetz vorhersagt. Während Moores Gesetz eine Verdopplung der Rechenleistung alle 18 bis 24 Monate prognostiziert, sieht Huang eine viel schnellere Entwicklung.
„Wir sind an einem Punkt angelangt, an dem wir uns viel schneller bewegen als Moores Gesetz“, sagte Huang. „Moores Gesetz prognostiziert über einen Zeitraum von zehn Jahren eine etwa 100-fache Steigerung der Leistung. Wir befinden uns wahrscheinlich in der Nähe von 100.000-facher Steigerung.“
Huang führt diese massive Beschleunigung auf mehrere Faktoren zurück:
„Dieser Rückkopplungseffekt, dieses Schwungrad fliegt jetzt wirklich“, erklärte Huang. „Wir erwarten in den nächsten ein bis zwei Jahren spektakuläre und überraschende Entwicklungen bei KI-Agenten.“
Für Nvidia, den führenden Anbieter von Hardware, die diese Transformation vorantreibt, sind die Aussichten vielversprechend. Huang ist überzeugt, dass die aktuelle Phase der KI-Entwicklung weitreichende Auswirkungen haben wird: „Wir werden ein Automatisierungsniveau erreichen, das die Welt noch nie gesehen hat.“
Ein Beispiel für Nvidias Innovation ist die Einführung der neuen Blackwell-GPU-Architektur. Diese Plattform ist speziell für generative KI im Maßstab von Billionen Parametern konzipiert. Die B200-GPU liefert 20 Petaflops Leistung, und die GB200 bietet eine 30-fache Leistungssteigerung bei der Verarbeitung großer Sprachmodelle im Vergleich zum Vorgänger Hopper.
Blackwell bietet nicht nur eine enorme Rechenleistung, sondern auch bedeutende Effizienzsteigerungen. Die neue TensorRT-LLM-Compiler in der Blackwell-Plattform reduziert die Betriebskosten und den Energieverbrauch für die Inferenz von großen Sprachmodellen um bis zu 25 Mal im Vergleich zum Vorgänger.
Während Nvidia weiterhin die Messlatte höher legt, bleiben andere große Technologieunternehmen wie Intel und AMD nicht untätig. Intel hat kürzlich seine Ponte Vecchio-GPU auf den Markt gebracht, während AMD die Instinct MI300-Beschleuniger-Serie eingeführt hat. Trotz dieser Fortschritte bleibt Nvidia mit der Blackwell-Plattform führend, insbesondere bei der Leistung von KI-Training und Inferenz.
Huang ist überzeugt, dass wir am Beginn einer neuen Ära der generativen KI stehen. „Wir haben einen Prozessor speziell für die generative Ära geschaffen“, sagte er. Diese neue Ära wird durch fortschrittliche Technologien wie 'Content Token Generation' und verbesserte Inferenzfähigkeiten vorangetrieben.
Die Fortschritte im Bereich der künstlichen Intelligenz übertreffen die Erwartungen von Moores Gesetz bei weitem. Nvidia, unter der Führung von Jensen Huang, treibt diese Entwicklung maßgeblich voran und setzt neue Maßstäbe für Rechenleistung und Effizienz. Die Auswirkungen dieser Fortschritte werden in den kommenden Jahren in vielen Bereichen der Technologie und darüber hinaus spürbar sein.
Nvidias Vision und Innovationen markieren den Beginn einer neuen Ära, die nicht nur die Technologiebranche, sondern die gesamte Gesellschaft transformieren wird.