Nach Informationen von The Robot Report haben Forscher der Binghamton University einen Roboter entwickelt, der blinden und sehbehinderten Menschen als Führungshund dient. Das Besondere: Das System nutzt Large Language Models, um in Echtzeit mit den Nutzern zu kommunizieren – eine Kombination aus Mobilitätshilfe und intelligenter Sprachinteraktion.
Diese Entwicklung adressiert eine zentrale Herausforderung im Bereich Assistenzroboter: Die Mensch-Roboter-Schnittstelle. Während konventionelle Führungshund-Roboter primär auf Navigation fokussieren, eröffnet der Einsatz von LLMs neue Möglichkeiten für intuitive, dialogbasierte Unterstützung – ein Trend, der Accessibility und KI stärker verschmelzen lässt.