Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Ein Forschungsteam des Learning Systems and Robotics Lab der Technischen Universität München (TUM) hat einen Robotertypus entwickelt, der in der Lage ist, verlegte Gegenstände in Innenräumen auf Kommando zu lokalisieren. Diese Entwicklung stellt einen Fortschritt in der Robotik dar, da der Roboter nicht nur Objekte und deren Bedeutung erfasst, sondern auch die Umgebung versteht, in der diese Objekte typischerweise zu finden sind. Dies ermöglicht eine gezieltere und effizientere Suchstrategie im Vergleich zu bisherigen Ansätzen.
Der von der TUM entwickelte Roboter ist eine mobile Plattform, die mit einem Mast ausgestattet ist, an dessen Spitze eine 3D-Kamera montiert ist. Diese Konfiguration erlaubt es dem Roboter, sich in Innenräumen zu bewegen und seine Umgebung detailliert zu erfassen. Die 3D-Kamera generiert zweidimensionale Bilder, die zusätzlich Tiefeninformationen enthalten. Aus diesen Daten wird ein digitales, zentimetergenaues räumliches Abbild der Umgebung erstellt. Dieser Scanvorgang wird kontinuierlich wiederholt, um eine stets aktuelle digitale Repräsentation des Raumes zu gewährleisten.
Ein zentrales Merkmal des Roboters ist sein semantisches Verständnis der Umgebung. Professorin Angela Schoellig, Leiterin des Robotik-Labs, erklärt, dass dem Roboter beigebracht wurde, nicht nur die gesuchten Objekte zu erkennen, sondern auch den Kontext ihrer typischen Ablageorte zu interpretieren. Beispielsweise versteht der Roboter, dass eine Brille eher auf einem Tisch oder einer Fensterbank abgelegt wird als auf einer Herdplatte oder in einem Spülbecken. Dieses Wissen wird durch ein KI-Sprachmodell generiert, das die Beziehungen zwischen Objekten und ihrer Umgebung herstellt.
Das Sprachmodell übersetzt internetbasiertes Wissen über Objekte und deren Verwendung in eine für den Roboter interpretierbare Form. Auf der dreidimensionalen Karte der Umgebung werden Wahrscheinlichkeitswerte für den Standort eines gesuchten Objekts berechnet. Diese dynamische Einschätzung ermöglicht es dem Roboter, seine Suche zu priorisieren und unwahrscheinliche Orte von vornherein auszuschließen. Forschungsergebnissen zufolge kann dadurch eine Effizienzsteigerung von bis zu 30 Prozent bei der Objektsuche erzielt werden.
Eine weitere Fähigkeit des Roboters ist die Erkennung von Veränderungen in seiner Umgebung. Durch den Vergleich aktueller Aufnahmen mit zuvor gespeicherten räumlichen Abbildern kann der Roboter neue oder veränderte Objekte mit einer Genauigkeit von 95 Prozent identifizieren. Bereiche, in denen Veränderungen festgestellt wurden und die daher als "hoch wahrscheinlich" für das Auffinden von Gegenständen gelten, werden bei der Suche bevorzugt berücksichtigt. Diese Funktion ist besonders relevant in dynamischen Umgebungen, in denen sich Objekte häufig verschieben oder neu platziert werden.
Die Forschenden der TUM planen, die Fähigkeiten des Roboters weiter auszubauen. Ein nächster Schritt ist die Ermöglichung der Suche nach Objekten, die in Schubladen oder hinter anderen Gegenständen verborgen sind. Dies erfordert jedoch eine Interaktion des Roboters mit seiner Umgebung, beispielsweise durch das Öffnen von Schränken. Dafür müsste der Roboter mit Manipulationsfähigkeiten ausgestattet werden, wie etwa Roboterarmen und -händen. Diese Entwicklung würde zusätzliche Kenntnisse über die Funktionsweise von Türen und Griffen erfordern, um eine effektive Interaktion zu gewährleisten und die Suchmöglichkeiten des Roboters zu erweitern.
Die Forschungsergebnisse wurden in der Studie „Where Did I Leave My Glasses? Open-Vocabulary Semantic Exploration in Real-World Semi-Static Environments“ vorgestellt, die im Preprint auf Arxiv und in den IEEE Robotics and Automation Letters veröffentlicht wurde.
Die Entwicklung dieses Suchroboters hat potenziell weitreichende Implikationen für B2B-Anwendungen. In industriellen Umgebungen könnten solche Roboter zur effizienten Lokalisierung von Werkzeugen, Komponenten oder Beständen eingesetzt werden, was zu einer Optimierung von Arbeitsabläufen und einer Reduzierung von Suchzeiten führen würde. Auch im Bereich der Logistik und Lagerhaltung könnten autonome Suchroboter die Inventur und das Auffinden spezifischer Artikel beschleunigen. Im Dienstleistungssektor, beispielsweise in großen Bürokomplexen oder Krankenhäusern, könnten sie dazu beitragen, verlorene Gegenstände oder benötigte Materialien schnell wiederzufinden. Die Fähigkeit zur autonomen Navigation und zum semantischen Verständnis der Umgebung macht diese Technologie zu einem vielversprechenden Ansatz für die Automatisierung komplexer Suchaufgaben in verschiedenen Geschäftsbereichen.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen