Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Integration von Künstlicher Intelligenz (KI) in wissenschaftliche Forschungsprozesse schreitet voran. Eine aktuelle Zusammenarbeit zwischen OpenAI und dem Biotechnologieunternehmen Ginkgo Bioworks demonstriert das Potenzial von KI, komplexe biologische Experimente autonom zu steuern und zu optimieren. Im Zentrum dieses Projekts steht die Verbindung von OpenAIs Sprachmodell GPT-5 mit einem vollautomatisierten Labor, um die Effizienz der zellfreien Proteinsynthese (CFPS) signifikant zu verbessern.
In Bereichen wie Mathematik und Physik können Ideen oft rein rechnerisch überprüft werden. Die Biologie hingegen erfordert physische Experimente, die zeit- und kostenintensiv sind. Hier setzt die Initiative von OpenAI und Ginkgo Bioworks an: Sie haben GPT-5 mit einem Cloud-Labor verbunden, um einen geschlossenen Regelkreis für die Optimierung der CFPS zu schaffen. Bei der CFPS werden Proteine außerhalb lebender Zellen produziert, indem die zelluläre Maschinerie in einer kontrollierten Mischung eingesetzt wird. Diese Methode ist relevant für die Medikamentenentwicklung, Diagnostik und industrielle Enzymproduktion.
Das entwickelte System operierte in einem iterativen Prozess über sechs Runden. GPT-5 generierte experimentelle Designs als digitale Dateien. Ein Validierungssystem, basierend auf der Python-Bibliothek Pydantic, überprüfte automatisch die wissenschaftliche Plausibilität und physikalische Umsetzbarkeit der vorgeschlagenen Experimente. Nur validierte Designs wurden an Ginkgo Bioworks' Cloud-Labor in Boston übergeben.
Im Labor selbst führten modulare Robotereinheiten, sogenannte Reconfigurable Automation Carts (RACs), die Experimente autonom durch. Diese Einheiten umfassen verschiedene Laborgeräte wie Liquid Handler, Inkubatoren oder Messinstrumente. Roboterarme und Transportschienen bewegten die Probenplatten zwischen den Stationen, gesteuert durch Ginkgos Catalyst-Software.
Nach Abschluss der Experimente flossen die Messdaten zurück zu GPT-5. Das Modell analysierte die Ergebnisse, formulierte Hypothesen und entwarf die nächste Runde von Experimenten. Die menschliche Beteiligung beschränkte sich im Wesentlichen auf die Vorbereitung, das Be- und Entladen von Reagenzien und Verbrauchsmaterialien sowie die Überwachung des Systems.
Innerhalb von sechs Monaten und über 36.000 durchgeführten Reaktionen auf 580 automatisierten Mikrotiterplatten konnte das System die spezifischen Produktionskosten für das Testprotein sfGFP (ein fluoreszierendes Standardprotein) von 698 US-Dollar pro Gramm auf 422 US-Dollar pro Gramm senken. Dies entspricht einer Reduktion von 40 % im Vergleich zum bisherigen Stand der Technik. Gleichzeitig stieg die Proteinausbeute um 27 % (von 2,39 auf 3,04 Gramm pro Liter Reaktionslösung). Allein die Reagenzienkosten sanken um 57 %, von 60 US-Dollar auf 26 US-Dollar pro Gramm.
In der ersten Runde entwarf GPT-5 die Reaktionszusammensetzungen ohne vorherige Beispiel- oder experimentelle Daten, ausschließlich basierend auf dem in seinen Gewichten gespeicherten Wissen. Selbst in diesem "Zero-Shot"-Modus lieferte das Modell bereits brauchbare, wenn auch noch nicht optimale, Designs.
Die größten Leistungssteigerungen traten ab der dritten Runde auf, als GPT-5 erstmals Zugang zu einem Computer, dem Internet, Datenanalysepaketen und einem Pre-Print der besten Ergebnisse anderer Forschungsgruppen erhielt. Das Modell erhielt zudem erweiterte Metadaten, einschließlich Rohdaten, Fehlerberichten zur Flüssigkeitshandhabung und tatsächlichen Inkubationszeiten. Von diesem Zeitpunkt an konnte GPT-5 seine eigenen experimentellen Ergebnisse mit Erkenntnissen aus der wissenschaftlichen Literatur kombinieren. Innerhalb von nur zwei Monaten übertraf das System den damaligen Stand der Technik. Es ist jedoch anzumerken, dass gleichzeitig auch die DNA-Matrize und das Zelllysat verbessert wurden, was eine exakte Zuordnung der Fortschritte erschwert.
Interessanterweise schlug GPT-5 Reagenzien wie Nukleosidmonophosphate (NMPs), Kaliumphosphat und Ribose vor, noch bevor es Zugang zu dem erwähnten Pre-Print hatte. Die Autoren dieser Veröffentlichung hatten die gleichen Substanzen unabhängig voneinander als kritisch identifiziert. Das Modell zog somit ähnliche Schlussfolgerungen wie Fachexperten, basierend auf seinen Trainingsdaten und den laufenden experimentellen Ergebnissen.
GPT-5 erstellte auch menschenlesbare Laborbuch-Einträge, die seine Datenanalysen und Hypothesen dokumentierten. Das Modell fand unter anderem heraus, dass ein kostengünstiger Puffer (HEPES) einen überproportional großen Einfluss auf die Proteinausbeute hat, dass Phosphat innerhalb eines engen Konzentrations- und pH-Bereichs gepuffert werden muss und dass die Zugabe von Spermidin (einer natürlich vorkommenden Substanz, die Nukleinsäuren stabilisiert) die Ausbeute steigert.
Eine weitere ökonomische Beobachtung des Modells war, dass die Kosten einer CFPS-Reaktion zu über 90 % durch Zelllysat und DNA bestimmt werden. Eine Erhöhung der Proteinausbeute pro Einheit dieser teuren Inhaltsstoffe ist daher der effektivste Hebel zur Kostenreduktion, anstatt Einsparungen bei günstigeren Sekundärkomponenten zu suchen.
Trotz der beeindruckenden Ergebnisse weist das Projekt auch Limitationen auf. Die Ergebnisse beziehen sich auf ein einzelnes Protein (sfGFP) und ein einzelnes CFPS-System. Ob die identifizierten Reaktionszusammensetzungen auf andere Proteine übertragbar sind, ist noch unklar. In einem Test mit zwölf zusätzlichen Proteinen waren nur sechs mittels Gelelektrophorese nachweisbar. Für andere Zielproteine wären weitere Optimierungen erforderlich.
Die menschliche Aufsicht blieb während des gesamten Prozesses für Protokollverbesserungen und die Handhabung von Reagenzien notwendig. So hatte das System in den frühen Phasen mit erheblichen Schwankungen der Messergebnisse zu kämpfen. Abweichungen zwischen Replikaten auf derselben Platte überstiegen teilweise 40 %. Um die Präzision zu verbessern, mussten Ginkgo-Mitarbeiter manuell Reagenzienkonzentrationen und Stammlösungen anpassen, wodurch die Abweichungen auf einen Median von 17 % reduziert wurden. Der Prozess war somit nicht vollständig autonom.
Die Fehlerrate war jedoch gering. Von 480 entworfenen Mikrotiterplatten wiesen nur zwei grundlegende Designfehler auf, was weniger als einem Prozent entspricht.
OpenAI und Ginkgo Bioworks planen, den Ansatz auf weitere biologische Prozesse auszudehnen. Die Fähigkeit von KI-Modellen, Protokolle im Nasslabor eigenständig zu verbessern, wirft auch Fragen hinsichtlich der Biosicherheit auf. OpenAI verweist auf sein eigenes "Preparedness Framework" zur Bewertung solcher Fähigkeiten im Hinblick auf Biosicherheitsrisiken. Konkrete Maßnahmen über diese Absichtserklärung hinaus werden in der Veröffentlichung nicht genannt.
Die Ergebnisse dieser Zusammenarbeit deuten auf eine transformative Ära in der biowissenschaftlichen Forschung hin, in der KI-Systeme eine zentrale Rolle bei der Beschleunigung von Entdeckungen und der Senkung von Kosten spielen könnten. Die kommerzielle Verfügbarkeit der KI-optimierten Reaktionsmischung durch Ginkgo Bioworks unterstreicht das praktische Potenzial dieser Technologie.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen