Benutzer-Werkzeuge

Webseiten-Werkzeuge


seminar_3m:m_3_seminar_2016:motioncapture2

Human Motion Capturing & Character Animation II

Veranstaltung Motion in Man and Machine - Seminar 2016
Autor Katrin Wöhlken, Anika Weber, Vanessa Steurer,
Peter Oettig, Hennadiy Yatskov, Nico Mürdter
Zuletzt geändert 25.06.2016


Einleitung

Für jeden Roboter muss eine individuelle Kinematik erstellt werden, die auf die einzelnen Segmente und seine dazugehörigen Gelenke angepasst ist. Dieser Prozess ist sehr aufwändig und kann nicht auf jeden Roboter übertragen werden. Mit dem Master Motor Map (MMM) ist es möglich verschiedene Bewegungen zu erfassen und als Zwischenprodukt in einem Referenzmodell zu speichern, um diese Bewegung in einem zweiten Schritt auf verschiedene, technische Anwendungen, wie die humanoiden Roboter zu konvertieren. Um die menschlichen Bewegungen zu erfassen, können unterschiedliche Motion Capture Verfahren angewendet werden. Dazu zählen unter anderem die Kinect Kamera, Inertialsensoren und das Vicon-Kamera-System. Durch das Referenzmodell ist es möglich unterschiedliche Probanden mit ihren individuellen, anthropometrischen Daten aufzunehmen. Das Referenzmodell wird auf die Größe und das Gewicht normiert. Es enthält kinematische und dynamische Eigenschaften sowie 104 Freiheitsgrade. Dynamische Eigenschaften werden für jedes Segment definiert und beinhalten die Position des Körperschwerpunkts relativ zur Segmentlänge, sowie die Masse jedes Segments relativ zum Gesamtgewicht des Probanden. Mittels des MMMs werden die Arbeitsschritte erleichtert und verkürzt. Darüber hinaus wird gezeigt, wie das MMM menschliche Bewegungsdaten online über die Motion Database[1][2] vervielfältigen kann und für humanoide Roboter verwendet wird. Eine ausführliche Darstellung der Schritte des MMMs ist in der Studie von Terlemez et al. 2013[3] zu finden.



Methodik

Die Bewegungsdaten sind mit dem Vicon-Kamera-System aufgezeichnet worden. Das Vicon-Kamera-System, bestehend aus zehn Infrarotkameras mit 56 passiven, reflektierenden Markern, muss vorbereitend dynamisch und statisch kalibriert werden [4]. Damit die Aufnahmesoftware die Zuordnung der Markerbenennungen kennt, werden von jedem Probanden einzelne dynamische und statische Aufnahmen durchgeführt. Nachdem eine Szene, basierend auf einem Indiana Jones Film, ausgewählt worden ist, sind sechs Aufnahmen erstellt worden. Die Auswahl der besten Aufnahme ist abhängig von der Sichtbarkeit aller Marker auf dem Start- und Endbild der Aufnahme. Zur Nachbearbeitung der Aufnahmen zählt das Lücken füllen, Filtern und Exportieren. Anschließend sind die Daten auf das Referenzmodell sowie auf das Robotermodell des ARMAR IV übertragen worden. Während des Ablaufs sind nachfolgende Probleme aufgetreten:

  • Einzelne Marker sind von einem Stuhl und Gliedmaßen der Probanden verdeckt worden.
  • Ein Proband konnte nur teilweise von den Kameras erfasst werden und wurde deshalb aus der Aufnahme gelöscht.
  • Das zusätzliche Objekt (Bürste) in der Hand eines Probanden konnte nicht zufriedenstellend konvertiert werden.



Ergebnisse

Nachfolgend sind in einem Video zusammengefasst die Ergebnisse des Projekttags dargestellt:



Zusammenfassung und Ausblick

Die Bedeutung des am KIT entwickelten MMM Modells ist durch die Projektaufgabe praxisnah vermittelt worden. Durch die selbstständige Anwendung des Vicon-Kamera-Systems sind die Funktionsweise und der Umgang mit dessen Aufnahmeproblematiken verdeutlicht worden. Die Möglichkeit bei einer Aufnahme mehrere Probanden und Objekte gleichzeitig zu visualisieren, erlaubt eine Anwendung in der Filmindustrie.



Literatur

  1. O. Terlemez, S. Ulbrich, C. Mandery, M. Do, N. Vahrenkamp and T. Asfour. Master Motor Map (MMM) - Framework and Toolkit for Capturing, Representing, and Reproducing Human Motion on Humanoid Robots. IEEE/RAS International Conference on Humanoid Robots (Humanoids). pp. 894 - 901. November 2014.
  2. C. Mandery, Ö. Terlemez, M. Do, N. Vahrenkamp and T. Asfour. The KIT Whole-Body Human Motion Database. International Conference on Advanced Robotics (ICAR). pp. 329 - 336. July 2015 z et al. 2013



indexmenu_n_2

seminar_3m/m_3_seminar_2016/motioncapture2.txt · Zuletzt geändert: 28.11.2022 00:11 von 127.0.0.1


Warning: Undefined variable $orig_id in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/openas/action.php on line 232