Google DeepMind hat Gemini Robotics-ER 1.6 vorgestellt, ein KI-Modell das Robotern hilft, ihre Umgebung räumlich zu verstehen und komplexe physische Aufgaben eigenständig zu bewältigen. Die neue Version kann erstmals Messinstrumente ablesen und zeigt Verbesserungen bei räumlichem Denken, Aufgabenplanung und Erfolgsanalyse. Das Modell steht ab sofort Entwicklern über die Gemini API zur Verfügung.
Google DeepMind stellt Robotik-KI mit verbessertem Raumverständnis vor
Unsere Einordnung
Die Fähigkeit zum Ablesen von Messinstrumenten markiert einen praktischen Fortschritt im Übergang von Labor zu echten Industrieanwendungen – Roboter werden damit weniger auf spezialisierte Hardware angewiesen. Ob das Tempo der Verbesserung ausreicht, um mit konkurrierenden Systemen anderer Tech-Konzerne Schritt zu halten, bleibt offen.
Schlüsselfakten
- Gemini Robotics-ER 1.6 ermöglicht Robotern, komplexe Gauges und Messinstrumente zu lesen – neu in dieser Version
- Modell verbessert räumliches Reasoning und visuelle Verständigung gegenüber Vorgängerversion 1.5 signifikant
- Entwickelt in Zusammenarbeit mit Boston Dynamics, dem Robotik-Partner von Google
- Ab sofort über Gemini API und Google AI Studio für Entwickler verfügbar
- Fungiert als High-Level-Reasoning-Engine und kann externe Tools wie Vision-Language-Action-Modelle aufrufen