Benutzer-Werkzeuge

Webseiten-Werkzeuge


seminar_3m:3m_2015:human_motion_capturing_character_animation_ii

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
seminar_3m:3m_2015:human_motion_capturing_character_animation_ii [09.07.2015 21:22] – [Inhalt] Isabel Ehrenbergerseminar_3m:3m_2015:human_motion_capturing_character_animation_ii [28.11.2022 00:11] (aktuell) – Externe Bearbeitung 127.0.0.1
Zeile 23: Zeile 23:
 Beim Entwurf von Robotermodellen muss für jeden Roboter eine Kinematik erstellt werden, welche seine einzelnen Segmente, also Körperglieder, und seine jeweiligen Gelenke mit der Anzahl der Freiheitsgrade beschreibt. Da jeder Roboter individuell ist, muss immer eine neue kinematische Struktur erstellt werden. Beim Entwurf von Robotermodellen muss für jeden Roboter eine Kinematik erstellt werden, welche seine einzelnen Segmente, also Körperglieder, und seine jeweiligen Gelenke mit der Anzahl der Freiheitsgrade beschreibt. Da jeder Roboter individuell ist, muss immer eine neue kinematische Struktur erstellt werden.
  
-Die Bewegungen, welche der Roboter in der Simulation ausführen soll, können nun auf zwei Arten übergeben werden. Entweder werden diese direkt eingegeben oder über das sogenannte "Motion Capture" auf den Roboter übertragen. Beim "Motion Capture" werden Aufnahmen von Menschen mit diversen Kamerasystemen gemacht. Diese können entweder mit Point-Cloud-basierten Kamerasystemen, wie der Kinect Camera, oder mit aktiven optischen Kamerasystemen, wie dem VICON-System, aufgenommen werden. Um aufgenommen Bewegungen, welche von unterschiedlichen Probanden sein können, auf jeden beliebigen Roboter zu mappen, wurde hierfür die Master Motor Map (MMM)[1] entwickelt. Diese ermöglicht es die Aufnahmen mittels eines Converters auf ein Referenzmodell zu mappen. Die Struktur der MMM+Die Bewegungen, welche der Roboter in der Simulation ausführen soll, können nun auf verschiedene Weisen übergeben werden. Diese können beispielsweise direkt eingegeben oder über das sogenannte "Motion Capture" auf den Roboter übertragen werden. Beim "Motion Capture" werden Aufnahmen von Menschen mit diversen Kamerasystemen gemacht. Eine Aufnahmemöglichkeit ist die Benutzung von Point-Cloud-basierten Kamerasystemen, wie der Kinect Camera. Eine weitere Möglichkeit stellen aktive optische Kamerasysteme, wie das VICON-System, dar. Um aufgenommen Bewegungen, welche von unterschiedlichen Probanden sein können, auf jeden beliebigen Roboter zu mappen, wurde hierfür die Master Motor Map (MMM)[1] entwickelt. Diese ermöglicht es die Aufnahmen mittels eines Converters auf ein Referenzmodell zu mappen. Die Struktur der MMM
 ist in folgender Abbildung zu sehen[1]: ist in folgender Abbildung zu sehen[1]:
  
Zeile 32: Zeile 32:
 {{ :seminar_3m:3m_2015:referenzmodell.png?300 |}} {{ :seminar_3m:3m_2015:referenzmodell.png?300 |}}
  
 +Durch das Mappen auf das MMM-Referenzmodell werden Eigenschaften des Körpers eines jeden Probanden, wie z.B die Körpergröße und die Segmentlänge, wegmarginalisiert. Dadurch findet eine Normalisierung der Bewegung statt. Das Referenzmodell hat für eine einfache Anpassung eine Größe von einem Meter und ein Gewicht von einem Kilogramm. 
 Mit Hilfe eines Converters wird das Referenzmodell auf das ausgewählte Robotermodell gemappt. Dies hat den großen Vorteil, dass die Modellierung der Modelle für die Aufnahmen und die Modellierung der Robotermodelle unabhängig voneinander stattfinden kann. Durch dieses Verfahren hat man eine große Wiederverwendbarkeit der Daten.  Mit Hilfe eines Converters wird das Referenzmodell auf das ausgewählte Robotermodell gemappt. Dies hat den großen Vorteil, dass die Modellierung der Modelle für die Aufnahmen und die Modellierung der Robotermodelle unabhängig voneinander stattfinden kann. Durch dieses Verfahren hat man eine große Wiederverwendbarkeit der Daten. 
-Das Referenzmodell ist ein dynamisches Modell. Dies bedeutet, dass zusätzlich zu der Länge der einzelnen Segmente noch die Masse, das Drehmoment und viele weitere Faktoren für jedes einzelne Gelenk berücksichtigt werden. Durch das Modell wird die maximale Anzahl an möglichen Bewegungsfreiheitsgraden vorgegeben. Ein besonderer Vorteil des MMM Frameworks ist, dass es frei im Internet verfügbar ist.+Das Referenzmodell ist ein dynamisches Modell. Dies bedeutet, dass zusätzlich zu der Länge der einzelnen Segmente noch die Masse, das Trägheitsmoment und viele weitere Faktoren für jedes einzelne Gelenk berücksichtigt werden. Durch das Modell wird die maximale Anzahl an möglichen Bewegungsfreiheitsgraden vorgegeben. Ein besonderer Vorteil des MMM Frameworks ist, dass es frei im Internet verfügbar ist.
  
  
Zeile 45: Zeile 46:
  
 Dieses besteht aus 20 Segmenten, welche mit verschiedenen Gelenken verbunden sind. Die Gelenke haben, den menschlichen Bewegungsfreiheitsgraden entsprechend, 1-3 mögliche Freiheitsgrade. Insgesamt hat das Modell 46 Freiheitsgrade. Bei jedem Freiheitsgrad wurde zusätzlich noch seine minimalen und maximalen Gelenkstellungen angegeben. Für jeden Freiheitsgrad musste in Blender ein „Bone“ reingelegt werden, beispielsweise bei einem Dieses besteht aus 20 Segmenten, welche mit verschiedenen Gelenken verbunden sind. Die Gelenke haben, den menschlichen Bewegungsfreiheitsgraden entsprechend, 1-3 mögliche Freiheitsgrade. Insgesamt hat das Modell 46 Freiheitsgrade. Bei jedem Freiheitsgrad wurde zusätzlich noch seine minimalen und maximalen Gelenkstellungen angegeben. Für jeden Freiheitsgrad musste in Blender ein „Bone“ reingelegt werden, beispielsweise bei einem
-dreidimensionalen Freiheitsgrad liegen hier 3 Bones übereinander.+dreidimensionalen Freiheitsgrad liegen hier 3 Bones übereinander. Ein Bone stellt in unserem Fall ein Bezugskoordinatensystem für ein Gelenk und sein dazugehöriges Segment dar. 
 Das Modell hat vereinfachte Hände und Füße, da einzelne Finger- oder Zehenbewegungen bei uns nicht interessant waren und deshalb nicht näher betrachtet wurden. Die Hände bestehen deshalb jeweils nur aus einem Segment und die Füße jeweils aus zwei Segmenten, ein Segment für den Fuß und eins für die Zehen.  Das Modell hat vereinfachte Hände und Füße, da einzelne Finger- oder Zehenbewegungen bei uns nicht interessant waren und deshalb nicht näher betrachtet wurden. Die Hände bestehen deshalb jeweils nur aus einem Segment und die Füße jeweils aus zwei Segmenten, ein Segment für den Fuß und eins für die Zehen. 
  
Zeile 65: Zeile 67:
 {{ :seminar_3m:3m_2015:markers_back.png?300 |}} {{ :seminar_3m:3m_2015:markers_back.png?300 |}}
  
-Hierbei bestand die Schwierigkeit die genaue Position für die Marker zu treffen, da das von uns ausgewählte Modell einen leicht anderen Körperbau hat. Zusätzlich musste man sich genau überlegen, zu welchem Segment der ausgewählte Marker gehört, da dies die spätere Bewegung beeinflusst. Teilweise war es schwierig die Markernamen genau zu wählen, da die Markernamen teilweise inkonsistent waren. Des Weiteren ist die Positionierung der Marker sehr zeitaufwendig.+Hierbei bestand die Schwierigkeit die genaue Position für die Marker zu treffen, da das von uns ausgewählte Modell einen leicht anderen Körperbau hat. Zusätzlich musste man sich genau überlegen, zu welchem Segment der ausgewählte Marker gehört, da dies die spätere Bewegung beeinflusst. Wenn beispielsweise ein Marker einem falschen Körpersegment zugeordnet wird, kann es zu unnatürlichen Bewegungen kommen, da das Programm versucht das Modell auf die vorgegebene Trajektorie zu mappen. Teilweise war es schwierig die Markernamen genau zu wählen, da die Markernamen teilweise inkonsistent waren. Des Weiteren ist die Positionierung der Marker sehr zeitaufwendig.
  
 Als nächsten Schritt haben wir aus der Motion Data Base[5] Bewegungen rausgesucht. Dabei haben wir folgende Bewegungen gewählt: high kick with right leg[6] Als nächsten Schritt haben wir aus der Motion Data Base[5] Bewegungen rausgesucht. Dabei haben wir folgende Bewegungen gewählt: high kick with right leg[6]
Zeile 83: Zeile 85:
 [2] http://tf3dm.com/3d-model/deadpool-44183.html [2] http://tf3dm.com/3d-model/deadpool-44183.html
  
-[3] https://motion-database.humanoids.kit.edu/marker_set/+[3] https://h2t.anthropomatik.kit.edu/748.php 
 + 
 +[4] https://motion-database.humanoids.kit.edu/marker_set/
  
-[4] https://motion-database.humanoids.kit.edu/list/motions/+[5] https://motion-database.humanoids.kit.edu/list/motions/
  
-[5] https://motion-database.humanoids.kit.edu/details/motions/610/+[6] https://motion-database.humanoids.kit.edu/details/motions/610/
  
  
seminar_3m/3m_2015/human_motion_capturing_character_animation_ii.1436469778.txt.gz · Zuletzt geändert: 28.11.2022 00:01 (Externe Bearbeitung)


Warning: Undefined variable $orig_id in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/openas/action.php on line 232