Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die zunehmende Verbreitung von Open-Source-KI-Modellen bietet zahlreiche Vorteile, birgt jedoch auch erhebliche Sicherheitsrisiken, insbesondere wenn diese Modelle nicht korrekt konfiguriert und genutzt werden. Aktuelle Untersuchungen von Sicherheitsexperten zeigen auf, dass eine beträchtliche Anzahl von Open-Source-KI-Instanzen, wie jene, die auf dem Framework Ollama basieren, im Internet unzureichend geschützt sind.
Die Kooperation von Sentinal Labs und Censys identifizierte über einen Zeitraum von 293 Tagen mehr als 175.000 ungesicherte Ollama-Hosts in 130 Ländern. Diese Instanzen, die es Nutzern ermöglichen, verschiedene offene KI-Modelle lokal zu betreiben, können durch eine einfache Konfigurationsänderung für das Internet zugänglich gemacht werden. Länder wie China, die USA und Deutschland weisen die höchste Dichte solcher offener Systeme auf.
Ein zentrales Problem dieser exponierten Ollama-Instanzen liegt darin, dass fast die Hälfte (48 Prozent) von ihnen ihren KI-Tools Zugriff auf API-Endpunkte gewährt. Dies ermöglicht die Interaktion mit externen Diensten und Anwendungen. Angreifer könnten diese Schnittstellen nutzen, um über sogenannte Prompt-Injektionen schädliche Befehle auszuführen. Hierbei werden manipulierte Anweisungen in die KI eingespeist, die dann unautorisierte Aktionen auslösen.
Zusätzlich dazu waren 22 Prozent der untersuchten Systeme in der Lage, Bilder zu analysieren. Dies eröffnet Cyberkriminellen die Möglichkeit, schädliche Anweisungen in Bilddateien (z.B. JPGs) zu verstecken. Wird ein solches manipuliertes Bild von einer ungesicherten Ollama-Instanz verarbeitet, könnten die eingebetteten Befehle ausgeführt werden, was in Verbindung mit API-Zugängen weitreichende Schäden verursachen kann.
Über die Fehlkonfiguration hinaus stellen Backdoors in Open-Source-KI-Modellen eine weitere ernste Bedrohung dar. Diese versteckten Schwachstellen können während der Trainings- oder Feinabstimmungsphasen in die Modelle eingeschleust werden. Sie bleiben oft inaktiv, bis ein spezifischer Trigger sie aktiviert, um beispielsweise Daten zu leaken, Fehlklassifizierungen zu verursachen oder unbefugte Aktionen auszuführen. Traditionelle Sicherheitsmaßnahmen wie statische Code-Analysen oder Software Bills of Materials (SBOMs) sind zur Erkennung dieser Art von Bedrohungen in komplexen KI-Modellen oft ungeeignet.
Ashish Verma und Deep Patel von Trend Micro weisen darauf hin, dass die schnelle Adaption von Open-Source-KI-Modellen Unternehmen erheblichen Risiken in der Lieferkette aussetzt. Plattformen, die Open-Source-Modelle hosten, bieten oft nur minimale Überprüfung, was die Verbreitung von Modellen mit bösartigem Code begünstigt. Eine Studie von JFrog zeigte, dass von über einer Million Modellen auf Hugging Face 400 schädlichen Code enthielten.
Angriffe auf KI-Modelle können in verschiedenen Phasen des Lebenszyklus ansetzen:
Die Erkennung von Backdoors in KI-Modellen wird durch mehrere Faktoren erschwert:
Experten fordern einheitliche Regeln und Standards für Open-Source-KI-Modelle, um Nutzer umfassend zu schützen. Dazu gehört die kontinuierliche Untersuchung von Modellen nach dem Release, die Offenlegung von Schwachstellen und deren Behebung. Große Sprachmodelle, die zunehmend Anweisungen in Aktionen umsetzen, müssen mit denselben Authentifizierungs-, Überwachungs- und Netzwerkkontrollen behandelt werden wie andere extern zugängliche Infrastrukturen.
Philipp Steevens betont in einem Interview die Notwendigkeit, sich vor Deepfakes, Deepscams und der Malware-Erstellung mittels LLMs zu schützen. Er weist darauf hin, dass Open-Source-KI-Modelle, wie sie beispielsweise Meta mit Llama anbietet, von Kriminellen missbraucht werden können, da diese sich nicht an Lizenzbedingungen halten.
Vorschläge zur Verbesserung der Sicherheit umfassen den Model Artifact Trust Standard (MATS), der über bestehende Standards hinausgeht und modellspezifische Sicherheitsanforderungen wie den Nachweis von Verhaltensvalidierungen, Feinabstimmungs-Abstammung und kryptografische Gewichts-Hashes beinhaltet. Zudem wird die Implementierung von Signierungs- und Überprüfbarkeitsmechanismen auf Plattformebene sowie die Ausweitung des EU-Cyberresilienzgesetzes auf KI-Modelle gefordert.
Ein globales Netzwerk zum Austausch von KI-Bedrohungsinformationen, ähnlich dem CVE/CWE-Modell, könnte ebenfalls dazu beitragen, die Sicherheitslage zu verbessern, indem es den Informationsaustausch zwischen Verteidigern, Forschern und Anbietern fördert.
Während Open-Source-KI-Modelle das Potenzial haben, Innovationen voranzutreiben und den Zugang zu fortschrittlichen Technologien zu demokratisieren, ist es von entscheidender Bedeutung, die damit verbundenen Sicherheitsrisiken proaktiv anzugehen. Unternehmen und Entwickler sind gefordert, bewährte Sicherheitspraktiken zu implementieren, Modelle sorgfältig zu prüfen und sich der potenziellen Angriffsvektoren bewusst zu sein. Nur durch eine Kombination aus technologischen Lösungen, strengen Standards und einer erhöhten Sensibilisierung kann die Sicherheit im Ökosystem der Open-Source-KI gewährleistet werden.
Bibliographie
- Fuhrmann, Marvin. "Sicherheitsexperten warnen: Open-Source-KI könnte zu gravierendem Security-Problem werden." t3n, 2. Februar 2026. - Verma, Ashish und Patel, Deep. "Backdoors in Open-Source KI-Modellen." Trend Micro, 13. August 2025. - Verma, Ashish und Patel, Deep. "Umgang mit Backdoors in Open-Source KI-Modellen." Trend Micro, 20. August 2025. - Solomon, Howard. "Neues GenAI-Tool soll Open-Source-Sicherheit erhöhen." CSO Online, 11. Juni 2025. - Steevens, Philipp. "Interview: KI wird erstmal viele Menschen unglücklich machen." heise online, 3. Juni 2024.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen