Benutzer-Werkzeuge

Webseiten-Werkzeuge


seminar_3m:3m_2015:human_motion_capturing_character_animation_i

Human motion capturing character animation I

Veranstaltung Biorobotik
Autoren Kubassa, Aljoscha; Meinen, Arne; Rosenthal, Nikolai; Schulz, Marlen
Abgabetermin 18. Juli 2015
Zuletzt geändert 16. Juli 2015

<note warning> Achtung: diese Wiki-Seite befindet sich noch im Aufbau und ist noch nicht finalisiert !! </note>

<note tip> Hier findet ihr Hilfestellungen beim Formatieren des Wikis: HowTo - Wiki-Format
Hier gibt es Hilfe zum Erstellen eines Tutorials/Podcasts HowTo - Tutorial </note>


Einleitung

Da die Programmierung von natürlicher menschlicher Bewegung sehr komplex ist, wird ein anderer Ansatz verfolgt. Hierbei wird die menschliche Bewegung direkt aufgenommen, um sie daraufhin in ein dreidimensionales Koordinatenmodell zu übertragen. Dieses wird entweder einem Roboter als Bewegungstrajektorie vorgegeben oder dient der Simulation eines animierten Charakters. Das KIT versucht hierbei eine möglichst umfangreiche Datenbank zu generieren, die diverse Bewegungsmuster beinhaltet. Durch die Verwendung eines frei zugänglichen Datenformats können diese Bewegungsmodelle universell verwendet und weiterverarbeitet werden.

Material/Methoden

Um dieses Ziel zu erreichen, sind diverse Schritte notwendig, welche im Rahmen des 3^M Seminars durchlaufen wurden. Im Folgenden werden die Methoden aufgelistet und erläutert.

1. Kalibrierung des Vicon Systems

Das eingesetzte, markerbasierte Erfassungssystem der Firma Vicon umfasst zehn Infrarot- Kameras und einer zusätzlichen Hardwarekomponente zur Datenerfassung und –verarbeitung. Da die Kameras nur schwarz/ weiß Bilder des infraroten Spektralbereichs erfassen, müssen alle ungewollten Reflexionen eliminiert werden. Zudem muss der Arbeitsbereich mit einem Kalibrierungsstab definiert werden, um eine optimale Datenerfassung zu gewährleisten. Damit die Kameras die Bewegung erfassen können, muss der Proband einen möglichst enganliegenden Anzug tragen, der mit 56 Infrarotreflektoren (Markern) besetzt ist. Eine Herausforderung ist dabei die Marker so zu positionieren, dass sie die Körperrelationen optimal abbilden. Dafür werden sie an anatomisch charakteristischen Stellen platziert. Schließlich sollte der Proband zur Evaluierung der Markerpositionen noch einige Bewegungen durchführen.

2. Aufnehmen der Reflektionspunkte

Im Anschluss können die geplanten Bewegungsabläufe durchgeführt und durch das Kamerasystem aufgenommen werden.

3. Umwandlung in ein 3D-Dynamisches Modell

Das aufgenommene Material muss dann in das MMM-Model überführt werden. Master Motor Map dient der einheitlichen Übertragung und der Analyse bestimmter dynamischer Bewegungen und ist Grundlage der Datenbank des KITs. Der Vorteil des Modells liegt in den hinterlegten Masse- und Längenverteilungen der menschlichen Anatomie und Kinematik. Somit sind die Bewegungen universell einsetzbar.

4. Mapping und Rendering des virtuellen Charakters

Das Modell (also die Punktwolken der Bewegung) kann nun auf einen animierten Charakter „gemapped“ werden. Dies bedeutet, dass die Punktwolken der Bewegung auf die äquivalenten Marker einer Holzpuppe kartiert werden. Im Anschluss werden die überlagerten Modelle beim Rendern in eine Bildreihe synthetisiert, diese kann nun als Simulation ablaufen.

Ergebnis

Im folgenden Podcast werden die einzelnen Schritte noch einmal vorgestellt. Die Punktwolken und die Animationen lassen sich als gute Ergebnisse vorstellen und werden kritisch hinterfragt.

https://www.youtube.com/watch?v=bw5gkdBeHU8&feature=youtu.be

Literatur

The Master Motor Map (MMM) Framework | Prof. Dr.-Ing. T. Asfour | Institut für Anthropomatik und Robotik (IAR) (High performance Humanoid Technologies) | Karlsruher Institut für Technologie | 20. Mai 2015



indexmenu_n_1

seminar_3m/3m_2015/human_motion_capturing_character_animation_i.txt · Zuletzt geändert: 28.11.2022 00:11 von 127.0.0.1


Warning: Undefined variable $orig_id in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/openas/action.php on line 232