Utvidet returrett til 31. januar 2025

Visuelle Programmierung von Greiffertigkeiten durch Demonstration im Kontext eines Serviceroboters

Om Visuelle Programmierung von Greiffertigkeiten durch Demonstration im Kontext eines Serviceroboters

Objekte greifen zu können ist eine grundlegende Fertigkeit für einen Serviceroboter. Sie ist entscheidend für viele Manipulationsaufgaben sowie für die Interaktion mit der Umgebung. Die Programmierung solcher Greiffertigkeiten mittels klassischer Roboterprogrammierung ist für einen Menschen nicht intuitiv und verlangt Expertenwissen. In einem Serviceroboterszenario, das robustes und adaptives Verhalten des Serviceroboters in einer nicht-statischen Umgebung erfordert, wie z.B. in einem Büroszenario, ist es jedoch wichtig, die Interaktion zwischen Roboter und Mensch und damit auch die Programmierung von Greiffertigkeiten zu vereinfachen. Menschen können komplexe Bewegungsabläufe durch die Beobachtung eines Instrukteurs erlernen, der die Bewegung mehrmals wiederholt. Basierend auf dieser Beobachtung wird in dieser Arbeit ein Ansatz zur Programmierung von Greiffertigkeiten durch Demonstration für einen Serviceroboter mit visuellen Sensoren vorgestellt, der dem Prinzip der Programmierung durch Demonstration folgt. Der entwickelte Ansatz ist nicht nur intuitiv und schnell einsetzbar, sondern die Genauigkeit der rekonstruierten Bewegungsabläufe konvergiert gegen die intendierte Bewegung des Instrukteurs. Das vorgeschlagene Verfahren wurde auf der experimentellen Forschungsplattform TASER des Arbeitsbereiches TAMS der Universität Hamburg implementiert. TASER ist ein mobiler Serviceroboter mit multimodalen Fähigkeiten zur Interaktion zwischen Mensch und Maschine. Der Ansatz wurde sowohl auf synthetisch generierten Bewegungssequenzen als auch auf realen Sensordaten evaluiert, die vom Serviceroboter TASER in einem alltäglichen Szenario aufgenommen wurden. Ground-Truth Daten wurden mit Hilfe synthetischer Bewegungssequenzen zur quantitativen Messung der Abweichung zwischen intendierter Trajektorie des Instrukteurs und rekonstruierter Trajektorie des Roboters generiert. Abhängig von der Anzahl der Demonstrationen und der Art der Trajektorie wird gezeigt, dass die intendierte Trajektorie bis auf wenige Millimeter rekonstruiert werden kann. Reale Sensordaten verwendend, wurden mehrere Greiffertigkeiten durch einen menschlichen Instrukteur programmiert, die anschließend autonom durch den Serviceroboter angewandt wurden und so das erfolgreiche Greifen der korrespondierenden Objekte ermöglichten.

Vis mer
  • Språk:
  • Tysk
  • ISBN:
  • 9783849537494
  • Bindende:
  • Hardback
  • Sider:
  • 252
  • Utgitt:
  • 26. mars 2013
  • Dimensjoner:
  • 254x178x16 mm.
  • Vekt:
  • 653 g.
  • BLACK NOVEMBER
Leveringstid: 2-4 uker
Forventet levering: 18. desember 2024

Beskrivelse av Visuelle Programmierung von Greiffertigkeiten durch Demonstration im Kontext eines Serviceroboters

Objekte greifen zu können ist eine grundlegende Fertigkeit für einen Serviceroboter. Sie ist entscheidend für viele Manipulationsaufgaben sowie für die Interaktion mit der Umgebung. Die Programmierung solcher Greiffertigkeiten mittels klassischer Roboterprogrammierung ist für einen Menschen nicht intuitiv und verlangt Expertenwissen. In einem Serviceroboterszenario, das robustes und adaptives Verhalten des Serviceroboters in einer nicht-statischen Umgebung erfordert, wie z.B. in einem Büroszenario, ist es jedoch wichtig, die Interaktion zwischen Roboter und Mensch und damit auch die Programmierung von Greiffertigkeiten zu vereinfachen.
Menschen können komplexe Bewegungsabläufe durch die Beobachtung eines Instrukteurs erlernen, der die Bewegung mehrmals wiederholt. Basierend auf dieser Beobachtung wird in dieser Arbeit ein Ansatz zur Programmierung von Greiffertigkeiten durch Demonstration für einen Serviceroboter mit visuellen Sensoren vorgestellt, der dem Prinzip der Programmierung durch Demonstration folgt. Der entwickelte Ansatz ist nicht nur intuitiv und schnell einsetzbar, sondern die Genauigkeit der rekonstruierten Bewegungsabläufe konvergiert gegen die intendierte Bewegung des Instrukteurs.
Das vorgeschlagene Verfahren wurde auf der experimentellen Forschungsplattform TASER des Arbeitsbereiches TAMS der Universität Hamburg implementiert. TASER ist ein mobiler Serviceroboter mit multimodalen Fähigkeiten zur Interaktion zwischen Mensch und Maschine.
Der Ansatz wurde sowohl auf synthetisch generierten Bewegungssequenzen als auch auf realen Sensordaten evaluiert, die vom Serviceroboter TASER in einem alltäglichen Szenario aufgenommen wurden. Ground-Truth Daten wurden mit Hilfe synthetischer Bewegungssequenzen zur quantitativen Messung der Abweichung zwischen intendierter Trajektorie des Instrukteurs und rekonstruierter Trajektorie des Roboters generiert. Abhängig von der Anzahl der Demonstrationen und der Art der Trajektorie wird gezeigt, dass die intendierte Trajektorie bis auf wenige Millimeter rekonstruiert werden kann. Reale Sensordaten verwendend, wurden mehrere Greiffertigkeiten durch einen menschlichen Instrukteur programmiert, die anschließend autonom durch den Serviceroboter angewandt wurden und so das erfolgreiche Greifen der korrespondierenden Objekte ermöglichten.

Brukervurderinger av Visuelle Programmierung von Greiffertigkeiten durch Demonstration im Kontext eines Serviceroboters



Finn lignende bøker
Boken Visuelle Programmierung von Greiffertigkeiten durch Demonstration im Kontext eines Serviceroboters finnes i følgende kategorier:

Gjør som tusenvis av andre bokelskere

Abonner på vårt nyhetsbrev og få rabatter og inspirasjon til din neste leseopplevelse.