
Cloud-basierte Rechenleistung für autonome Robotiksysteme
Modelle des Maschinellen Lernens für Künstliche Intelligenz (KI) werden stetig leistungsfähiger, dadurch aber auch wesentlich rechenintensiver. Insbesondere bei KI-basierten robotischen Systemen mit komplexen Eingangsdaten und Echtzeitreaktionen stellt dies eine große Herausforderung dar. Um den Leistungsanforderungen gerecht zu werden, werden aktuell pro System ein oder mehrere leistungsstarke Grafikprozessoren (GPUs) verbaut. Diese sind teuer, ressourcenaufwendig in der Herstellung und verbrauchen viel Energie im Betrieb. Die volle Leistung wird vom System allerdings nur bei Spitzenlasten benötigt. Durch die Verwendung von Cloud-GPUs sollen diese Nachteile reduziert und eine deutliche Effizienzsteigerung erreicht werden, indem die Rechenleistung von mehreren Systemen gemeinsam genutzt wird.
Ziel des Projektes „RoboCloud“ ist es, am Beispiel von autonomen Kochsystemen zu erforschen, ob moderne Kommunikationstechnologien eine Auslagerung der Rechenleistung für KI-Modelle bei robotischen Systemen von integrierten GPUs hin zu Cloud-GPUs ermöglichen. Da die Bewegungsplanung quasi in Echtzeit erfolgen muss, muss der Datenaustausch zwischen robotischem System und Cloud mit möglichst geringer Latenz erfolgen. Dazu müssen die Modelle trainiert und die Cloud-Computing Infrastruktur aufgesetzt werden. Die Forschenden untersuchen dafür die Eignung verschiedener Softwareschnittstellen, Kommunikationsprotokolle und IT-Architekturen, und vergleichen und optimieren sie bezüglich Latenz und Bandbreite.
Das Projekt verfolgt innovative Ansätze für die Auslagerung von Rechenleistung KI-gestützter robotischer Systeme in die Cloud. So sollen Kosten und Ressourcenverbrauch reduziert werden, ohne dafür Sicherheit und geringe Latenz aufzugeben. Die im Projekt entwickelte Lösung kann dann auf andere robotische Systeme mit hohen Leistungsanforderungen generalisiert werden. So wird der gesamte Bereich der Robotik gestärkt und die Ressourceneffizienz von autonomen Systemen verbessert.