Warning: Undefined array key "DW68700bfd16c2027de7de74a5a8202a6f" in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/translation/action.php on line 237

Warning: Trying to access array offset on value of type null in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/translation/action.php on line 237

Warning: Cannot modify header information - headers already sent by (output started at /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/translation/action.php:237) in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/inc/Action/Export.php on line 104

Warning: Cannot modify header information - headers already sent by (output started at /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/translation/action.php:237) in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/inc/Action/Export.php on line 104
fm:messmethoden:mmb05

Inhaltsverzeichnis

MMB5 Elektro-Optik

Modul MMB5 Elektro-optische Messung
Kategorie Messmethoden Biomechanik
Autor Filip Cengic
Voraussetzung Grundlagen Biomechanik
Bearbeitungsdauer ca. 45 Minuten
Letzte Änderung 17. Februar 2015
Status in Review
Lehrveranstaltung Lernziel

Einleitung

Ein chinesisches Sprichwort besagt: Ein Bild sagt mehr als tausend Worte. Das menschliche Gehirn denkt bildlich, dementsprechend lassen sich bildhafte Merkmale einfacher einprägen. In sportlichem Kontext wird großer Gebrauch gemacht von bildverarbeitenden Systemen, z.B. bei einer Videoanalyse von komplexen Bewegungsabläufen oder der Übertragung eines Fußballspiels (Winter, 2009, S. 53): “Because of the complexity of most movements, the only system that can possibly capture all the data is an imaginary system”. Doch wer war eigentlich der Erfinder der Kamera?

Abb. 1: Étienne-Jules Marey (CC-PD-Mark)

Um der Frage nach der ersten Erfindung der Kamera nachzugehen,​ reisen wir zurück ins Jahr 1830. Der französische Physiologe Étienne-Jules Marey (s. Abb. 1) wurde zur Welt gebracht. Im Jahre 1878 erschien sein Werk „La Méthode Graphique dans les Sciences Expérimentales“. Das Werk lieferte fundamentale Erkenntnisse im Bereich bildverarbeitender Systeme.

Ein paar Jahre zuvor (1872) machte der britische Fotograf Eadweard Muybridge auf sich aufmerksam. Er führte Experimente auf der Stanford‘s (Governor of California) Ranch druch, um die Beinstellung eines galoppiedenden Pferdes zu untersuchen. Dabei erreichte er eine Belichtungszeit von 1/100 s und löste die Kameras über Fäden aus (Blickhan & Seyfarth, 2010, S. 31). Sein Nachweis erbrachte, dass beim Traben die Pferde vom Boden abheben.



Grundbegriffe der Bildmessung

Es wird zwischen zwei „Räumen“ in der Bildmessung unterschieden, dem Objekt- und Bildraum. Der Objektraum bezeichnet die reale Welt und der Bildraum nur eine Abbildung dieser Welt. Der Linseneffekt erzeugt eine vertikale Spiegelung des realen Objekts: Alles was mit einer Kamera aufgenommen wird, wird spiegelverkehrt verarbeitet (s. Abb. 1).

Abb. 1: Schema der optischen Abbildung (mod. nach Baumann & Preiß, 1996, S. 88)


Der Brennpunkt (F) sammelt alle parallelen Lichtstrahlen in einem Punkt, die Brennweite bezeichnet den Abstand zwischen Brennpunkt F und optischer Linse. Typische Werte für die Brennweite sind 25 mm beim Normalobjektiv, 150 mm beim Teleobjektiv und 13 mm beim Weitwinkelobjektiv (Blickhan & Seyfarth, 2010, S. 9). Es gelten folgende Grundsätze zwischen dem Brennpunkt F und Bildpunkt B:

;#; $\frac{b}{f}=\frac{b'}{o}\ \ \ \ \ $ (1) ;#;
Das Verhältnis zwischen Bild- und Brennweite entspricht dem Quotienten aus dem Abstand b' (Brenn- und Bildpunkt) und der Objektweite (o).

In der Realität ist die Bildweite b winzig verglichen mit der Objektweite o. Aufgrund folgender Gesetzmäßigkeit kann man sagen, die Brennweite entspricht der Bildweite (s. Gleichung 2).

;#; $\frac{1}{f}=\frac{1}{b} + \frac{1}{o}\ \ \ \ \ $ (2) ;#;
Da $\frac{1}{o} \approx 0$ kann man sagen, dass $f \approx b$ (Winter, 2009, S. 68).



Blende

Die Menge an Licht, welches in das Objektiv einstrahlt, kann durch die Blende gesteuert werden. Standardisierte Einstellungen der Blendenöffnung sind: 22, 16, 11, 8, 5.6, 4, 2.8 und 2. Das Verhältnis zwischen Blendenöffnung und -wert ist umgekehrt proportional, z.B. meint die Bezeichnung $\frac{f}{22}$, dass die Linse zu 1/22 vom Gesamtdurchmesser geöffnet ist. Je größer der Wert, umso kleiner die Blendenöffnung. Um die Lichtanforderungen auf ein Minimum zu reduzieren, sollte die Blende geöffnet sein (→ niedriger Blendenwert) (Winter, 2009, S. 54f.).


<spoiler|Um welchen Faktor ändert sich die Blendengröße, wenn vom Wert 22 auf 11 gewechselt wird? > Die Linse von vorne betrachtet hat die Form eines Kreises. Deren Flächeninhalt lässt sich durch die Formel $A = \pi * r^2$ beschreiben. Es ist zu sehen, dass die Änderung des Radius einen quadratischen Einfluss hat auf die Fläche. Bei einer Halbierung des Durchmessers vervierfacht sich dementsprechend der Flächeninhalt. </spoiler>

Vergrößerung

Abb. 2: Vergrößerung durch 2 Linsen (Blickhan & Seyfarth, 2010, S. 12)

Die Vergrößerung eines optischen Instruments ist das Verhältnis zwischen der scheinbaren Größe (Größe des Bilds) und der wahren Größe eines Objekts. Durch eine zweite Linse im Okular der Kamera wird der Vergrößerungseffekt erzielt. Dabei ist der Abstand $f'$ zwischen Brennpunkt und Okular geringer als Abstand $f$. Der Vergrößerungsfaktor trägt das Symbol $M$ und kann durch folgende Gesetzmäßigkeit beschrieben werden:

;#; $M = \frac{\beta}{\alpha}=\frac{f}{f'}$ ;#;

<spoiler|Wie lässt sich die Bildgröße s berechnen? > $s=\alpha * f\ $ oder $s=\beta * f'\ $ </spoiler>



Von 2D nach 3D

„Bei der optischen Abbildung wird von dem in der Regel räumlich ausgedehnten Objekt mittels eines Objektivs ein ebenes – im allgemeinen verkleinertes – Bild erzeugt“ (Baumann & Preiß, 1996, S. 88). Die Reduzierung des dreidimensionalen Objektraumes in die zweidimensionale Bildebene bedeutet einen Verlust an Information. Ist die Bildebene parallel zur Objektebene, sind Beziehungen zwischen Bild und Objekt besonders einfach (Baumann & Preis, 1996, S. 88f.):

  1. Geraden werden als Geraden abgebildet
  2. Winkel bleiben bei der Abbildung unverändert erhalten
  3. Alle Strecken werden in gleichem Maßstab verkleinert

In der Praxis ist dies häufig nicht der Fall und es muss eine mehr oder minder gute Näherung des einfachsten Abbildungsfalles realisiert werden. Der Abbildungsprozess ist mit entsprechenden Fehlern behaftet. Wenn die abgeschätzten Fehler nicht tolerierbar sind, muss eine 3-dimensionale Bestimmung der Objektkoordinaten erfolgen (Baumann & Preis, 1996, S. 88ff.).



2D-Bewegungserfassung

Bei der 2-dimensionalen Bewegungserfassung erfolgt die Bildverarbeitung in einer Ebene. Im Optimalfall steht die fixierte Kamera senkrecht zur Bewegungsebene. Der Maßstab für die Breite und Höhe des Bildes bleibt erhalten. Es müssen entsprechende Kameraeinstellungen (Belichtungsfrequenz, Belichtungszeit, externe Lichtquellen, etc.) getätigt werden, um die gewünschte Bildschärfe zu erhalten.



3D-Bewegungserfassung

Abb. 3: Infrarotsystem „Oqus“ (Filip Cengic; CC-BY)

Um die Raumkoordinaten eines Objektpunkts eindeutig zu bestimmen, sind mind. zwei von unterschiedlichen Standorten aus aufgenommene Messbilder erforderlich. Mit Hilfe elektro-optischer Systeme werden die Koordinaten von Markern, die auf ausgewählte Punkte des Körpers (oder bewegte Sportgeräte) angebracht werden, in Echtzeit aufgezeichnet.

Schwameder (2009, S. 93ff.) unterscheidet zwischen Aktiv-Marker Systemen und Aktiv-Kamera Systemen. Bei den Aktiv-Marker Systemen senden Marker ein Funksignal aus, das von Kameras erfasst wird. Zu den wichtigsten Vertretern der Aktiv-Kameras zählen die Infrarot Systeme (z.B. Qualisys). Hier senden spezielle Arrays, die um die Kameraoptik angeordnet sind, ein Infrarotlicht aus, das von am Körper aufgeklebten Markern reflektiert und von den Kameras erfasst wird. Für störungsfreie Markererkennung sind mindestens 6 Aktiv-Kameras notwendig. Ein wichtiges Kriterium ist, dass die Kameras entweder synchron laufen oder der zeitliche Versatz der Videoaufnahmen bekannt ist.



Direkte Lineare Transformation

Die Kalibrierung des Raumes bei 3D Aufnahmen kann mithilfe der direkten linearen Transformation (DLT) erfolgen. Ein Referenzpunktesystem mit mind. 6 Punkten ist dabei notwendig. Dieses Referenzpunktesystem sollte den Objektraum weitestgehend ausfüllen. Eine Formel zur Berechnung der DLT findet sich hier:

;#; ;#;

Die gesuchten Parameter $x_k$ und $y_k$ sind die Bildkoordinaten. Diese können anhand der mit dem Kamerasystem erfassten Raumkoordinaten $X$, $Y$ und $Z$, sowie den DLT-Koeffizienten $l_{1-11}$, berechnet werden. Dabei werden die Referenzpunkte von allen Kameras gefilmt und durch Digitalisierungsprozesse werden deren Bildkoordinaten bestimmt. Nach erfolgter Bildkalibration dürfen weder die Positionen und opischen Achsen, noch die Brennweiten der Kameras verändert werden (Schwamder, 2009, S. 96).

Eine nähere Ausführung über die DLT ist im Tutorial MMB5 nachzusehen.



Vor- und Nachteile

Die Vorteile bzw. Nachteile eines elektrooptischen Systems sind in folgender Tabelle aufgelistet (Winter, 2009, S. 63f.):

Vorteile Nachteile
Daten werden in einem globalen Bezugssysteme dargestellt Viele Multi-Kamerasysteme sind teuer
Es können beliebig viele Marker angebracht werden Manche Bildsysteme können nicht in Freiluft verwendet werden (z.B. Infrarotsysteme)
Reflektierende Marker sind nur ein geringer Ballast für den Körper Limitierte Anzahl an Lichtquellen, i.e. Kameras
Aufzeichnungen können für Lehr- und Forschungsprojekte wiederverwendet werden



Anwendung: Optotrak

Abb. 4: Optotrak (Blickhan & Seyfarth, 2010, S. 40)

Bei diesem System sind 3 Minikameras in Reihe angeordnet (s. Abb. 4). Die beiden äußeren Kameras sind mit ihren horizontal ausgelegten Dioden nach innen gerichtet. Sie definieren jeweils die Lage aller Marker in der vertikalen Ebene. Die Kameralinse in der Mitte scannt die Marker in horizontaler Ebene. Der Schnittpunkt der horizontalen Ebene und der beiden vertikalen Ebenen definiert einen einzigartigen Punkt im 3-dimensionalen Raum.

Beim Pulsieren des Infrarotlichts werden die x-, y- und z-Koordinaten in einem globalen Bezugssystem erfasst. Das gepulste Licht der 2./3. Lichtquelle liefert eine weitere Vertikal- und Horizontalebene, i.e. neue x, y und z-Koordinaten.



Zusammenfassung




Literatur

Baumann, W. & Preiß, R. (1996). Biomechanische Meßverfahren. In R. Ballreich & W. Baumann (Hrsg.). Grundlagen der Biomechanik des Sports (S. 75-102). Probleme, Methoden, Modelle. Stuttgart: Ferdinand Enke Verlag.

Schwameder, H. (2009). Einführung in die Kinemetrie. In A. Gollhofer (Hrsg.), Handbuch Sportbiomechanik (S. 88-103). Schorndorf: Hofmann.

Blickhan, R. & Seyfarth, A. (2012). Forschungsmethoden der Biomechanik. Teil B: Optische Verfahren. Präsentationsfolien im Rahmen der Veranstaltung Biomechanik II Messverfahren WS 2009/10. Darmstadt: Institut für Sportwissenschaft.

Winter, D. (2009). Biomechanics and Motor Control of Human Movement. Hoboken, New Jersey: John Wiley & Sons, Inc.



indexmenu_n_5

free hits