Die Forschung bei Microsoft zeigt, dass es möglich ist, KI-Modelle so klein zu gestalten, dass sie auf Telefonen oder Laptops laufen können, ohne dabei signifikante Kompromisse bei ihrer Intelligenz einzugehen. Diese Technik könnte neue Anwendungsfälle für künstliche Intelligenz (KI) eröffnen und stellt einen bedeutenden Schritt in der Entwicklung der Computertechnologie dar.
Als ChatGPT im November 2023 veröffentlicht wurde, konnte es nur über die Cloud abgerufen werden, da das zugrunde liegende Modell immens groß war. Heute jedoch laufen ähnliche KI-Programme auf einem MacBook Air, ohne dass das Gerät übermäßig warm wird. Dies verdeutlicht, wie schnell Forscher KI-Modelle optimieren, um sie schlanker und effizienter zu machen.
Das Modell, das meinem Laptop ChatGPT-ähnliche Fähigkeiten verleiht, heißt Phi-3-mini. Es gehört zu einer Familie kleinerer KI-Modelle, die kürzlich von Microsoft-Forschern veröffentlicht wurden. Obwohl es kompakt genug ist, um auf einem Smartphone zu laufen, habe ich es auf einem Laptop getestet und es über eine iPhone-App namens Enchanted genutzt, die eine Chat-Oberfläche ähnlich der offiziellen ChatGPT-App bietet.
In einem Papier, das die Phi-3-Familie beschreibt, behaupten Microsofts Forscher, dass das von mir verwendete Modell im Vergleich zu GPT-3.5, dem Modell hinter der ersten Veröffentlichung von ChatGPT, positiv abschneidet. Diese Behauptung basiert auf der Messung seiner Leistung anhand mehrerer standardisierter KI-Benchmarks, die gesunden Menschenverstand und logisches Denken messen. In meinen eigenen Tests scheint es ebenso leistungsfähig zu sein.
Microsoft kündigte auf seiner jährlichen Entwicklerkonferenz Build ein neues "multimodales" Phi-3-Modell an, das Audio, Video und Text verarbeiten kann. Dies geschah nur wenige Tage, nachdem OpenAI und Google beide radikale neue KI-Assistenten vorgestellt hatten, die auf multimodalen Modellen basieren und über die Cloud zugänglich sind.
Die Phi-Familie zeigt, dass es möglich wird, nützliche KI-Anwendungen zu entwickeln, die nicht von der Cloud abhängig sind. Dies könnte neue Anwendungsfälle eröffnen, indem sie reaktionsschneller oder privater sind. Offline-Algorithmen sind ein entscheidender Bestandteil der Recall-Funktion, die Microsoft angekündigt hat und die KI nutzt, um alles, was Sie jemals auf Ihrem PC getan haben, durchsuchbar zu machen.
Sébastien Bubeck, ein Forscher bei Microsoft, der an dem Projekt beteiligt ist, erklärt, dass die Modelle entwickelt wurden, um zu testen, ob eine sorgfältigere Auswahl der Trainingsdaten die Fähigkeiten eines KI-Systems verbessern könnte, ohne das Datenvolumen zu erhöhen. Im September letzten Jahres trainierte sein Team ein Modell, das etwa ein Siebzehntel der Größe von OpenAIs GPT-3.5 hatte, auf "Lehrbuchqualität" synthetischen Daten, die von einem größeren KI-Modell generiert wurden. Das resultierende Modell zeigte überraschende Fähigkeiten für seine Größe.
Bubeck meint, dass die Ergebnisse darauf hindeuten, dass zukünftige KI-Systeme nicht nur durch Skalierung auf größere Größen intelligenter werden. Kleinere Modelle wie Phi-3 könnten eine wichtige Rolle in der Zukunft des Computing spielen. Lokale KI-Modelle auf Smartphones, Laptops oder PCs reduzieren die Latenz oder Ausfälle, die auftreten können, wenn Anfragen in die Cloud geleitet werden müssen. Sie garantieren, dass Ihre Daten auf Ihrem Gerät bleiben und könnten völlig neue Anwendungsfälle für KI eröffnen, die im Cloud-zentrierten Modell nicht möglich sind.
Apple wird voraussichtlich bei seiner WWDC-Konferenz nächsten Monat seine lang erwartete KI-Strategie vorstellen und hat bereits betont, dass seine maßgeschneiderte Hardware und Software maschinelles Lernen lokal auf seinen Geräten ermöglicht. Anstatt mit OpenAI und Google in der Entwicklung immer größerer Cloud-KI-Modelle zu konkurrieren, könnte Apple einen anderen Weg einschlagen, indem es sich auf die Verkleinerung von KI konzentriert, um in die Taschen seiner Kunden zu passen.
Die Entwicklung kompakter KI-Modelle wie der Phi-3-Familie von Microsoft könnte eine neue Ära der Computertechnologie einläuten. Diese Modelle bieten nicht nur eine leistungsfähige Alternative zu den riesigen Cloud-basierten Modellen, sondern eröffnen auch neue Möglichkeiten für die Integration von KI in alltägliche Geräte und Anwendungen. Durch die Reduzierung der Abhängigkeit von der Cloud und die Verbesserung der Privatsphäre und Reaktionsfähigkeit könnten diese Modelle die Art und Weise, wie wir mit Technologie interagieren, grundlegend verändern.
https://www.wired.com/story/pocket-sized-ai-models-unlock-new-era-of-computing/
https://blogs.microsoft.com/blog/2024/05/20/introducing-copilot-pcs/
https://press.hp.com/us/en/press-releases/2024/omnibook-elitebook.html
https://www.theverge.com/2024/5/21/24159282/microsoft-ai-small-language-model-phi-3-vision
https://azure.microsoft.com/en-us/blog/new-models-added-to-the-phi-3-family-available-on-microsoft-azure/
https://nvidianews.nvidia.com/news/nvidia-blackwell-platform-arrives-to-power-a-new-era-of-computing
https://www.docker.com/blog/the-strategic-imperative-of-ai-in-2024/
https://news.futuretools.io/unveiling-the-o1-lite-the-future-of-open-source-ai-devices/
https://blogs.windows.com/windowsdeveloper/2024/05/21/unlock-a-new-era-of-innovation-with-windows-copilot-runtime-and-copilot-pcs/
https://www.nytimes.com/2024/04/23/technology/microsoft-ai.html