Hinweis: Nach der Aktivierung des Videos werden Daten an den jeweiligen Anbieter übermittelt. Weitere Informationen finden Sie in unserer Datenschutzerklärung.
Video abspielen
Projekt
Problemdefinition
Stationäre Roboter haben einen definierten Arbeitsraum, der die Größe der Werkstücke begrenzt. Industrieroboter erweitern diese Grenzen in der Regel durch das Hinzufügen einer zusätzlichen Achse. Sie sind daher auf teure Hardware mit geringen Toleranzen und eine anwenderspezifische Integration in das System angewiesen. Zeitgenössische kollaborative Roboter ermöglichen neue Wege der Mensch-Roboter-Kollaboration, indem sie eine sichere Roboterarbeitsumgebung bieten. Obwohl sie wesentlich beweglicher sind als Industrieroboter, haben diese kollaborativen Roboter immer noch das gleiche Verhältnis von Größe zu Arbeitsraum und damit die gleichen Einschränkungen bei der Handhabung größerer Werkstücke.
Lösung
Wir schlagen eine Lösung vor, bei der ein kostengünstiges Motion-Tracking-System von einer HTC Vive am Werkstück angebracht wird, das dann den Roboter Toolpath in Echtzeit aktualisiert. Auf diese Weise kann eine Person große Materialstücke manuell durch den stationären Roboterarbeitsraum bewegen. Der Roboter führt dann lokale Manipulationen in dem Bereich des Werkstücks aus, der sich zu diesem Zeitpunkt in Reichweite des Roboter-Endeffektors befindet. Ein solches Szenario würde den Einsatz von Robotern im Bereich der Herstellung von Architekturkomponenten erweitern und traditionelle Handwerkskunst und Roboter einander näher bringen.
Proof of Concept
Um dieses Konzept zu testen, haben wir die Aufgabe definiert, eine Reihe von 2 Meter hohen Architektursäulen herzustellen, bei denen ein UR5-Roboter große Styropor-Werkstücke mit Heißdrahtschneiden in Form bringt. Jede Säule wurde aus einem einzelnen Block von 2000 mm x 400 mm x 400 mm Material geschnitten. Das Werkstück wurde mit zwei Vive-Tracker ausgestattet. Das Material wurde manuell entlang einer Linearführung geschoben. Der technische Aufbau für diesen Proof-of-Concept besteht aus Rhino, Grasshopper und dem Robots Plug-in zur Erzeugung von UR-Script-Code und dessen Übermittlung an die Steuerung über eine Socket-Verbindung. Die Vive-Position wurde über die Steam VR API erfasst und in Grasshopper gestreamt.
Dieser Text wurde aus dem Englischen übersetzt.
Informationen
Projektverantwortlich:
- Victor Sardenberg
Beteiligte:
- Prof. Mirco Becker
- Marco Schacht
- Mohamed Hassan
Publikationen:
- Extending the Robotic Workspace by Motion Tracking Large Workpieces, HCI International 2020 - Posters
- Extending the Robotic Workspace by Motion Tracking Large Workpieces, ACADIA 2020 - Videos
Links: