Nach Informationen von t3n haben Forscher der Binghamton University einen Roboterhund entwickelt, der blinde Menschen nicht nur navigiert, sondern auch mit ihnen kommuniziert – angetrieben durch ChatGPT-4. Im Gegensatz zu echten Blindenhunden kann das System dabei hunderte statt nur etwa 20 Befehle verstehen und seine Umgebung verbal beschreiben.
Die Kombination aus Robotik und Large Language Models eröffnet neue Perspektiven für Assistenztechnologien. Allerdings zeigt die Studie auch Grenzen auf – das System kann noch nicht alle realen Navigationssituationen meistern. Für die KI-Branche ist dies ein spannendes Anwendungsbeispiel, das Sprachmodelle über reine Chat-Funktionen hinaus in physische Assistenzsysteme integriert.