Inhaltsverzeichnis
MMB5 Elektro-Optik
Modul | MMB5 Elektro-optische Messung |
---|---|
Kategorie | Messmethoden Biomechanik |
Autor | Filip Cengic |
Voraussetzung | Grundlagen Biomechanik |
Bearbeitungsdauer | ca. 45 Minuten |
Letzte Änderung | 17. Februar 2015 |
Status | in Review |
Lehrveranstaltung | Lernziel |
---|---|
Einleitung
Ein chinesisches Sprichwort besagt: Ein Bild sagt mehr als tausend Worte. Das menschliche Gehirn denkt bildlich, dementsprechend lassen sich bildhafte Merkmale einfacher einprägen. In sportlichem Kontext wird großer Gebrauch gemacht von bildverarbeitenden Systemen, z.B. bei einer Videoanalyse von komplexen Bewegungsabläufen oder der Übertragung eines Fußballspiels (Winter, 2009, S. 53): “Because of the complexity of most movements, the only system that can possibly capture all the data is an imaginary system”. Doch wer war eigentlich der Erfinder der Kamera?
Um der Frage nach der ersten Erfindung der Kamera nachzugehen, reisen wir zurück ins Jahr 1830. Der französische Physiologe Étienne-Jules Marey (s. Abb. 1) wurde zur Welt gebracht. Im Jahre 1878 erschien sein Werk „La Méthode Graphique dans les Sciences Expérimentales“. Das Werk lieferte fundamentale Erkenntnisse im Bereich bildverarbeitender Systeme.
Ein paar Jahre zuvor (1872) machte der britische Fotograf Eadweard Muybridge auf sich aufmerksam. Er führte Experimente auf der Stanford‘s (Governor of California) Ranch druch, um die Beinstellung eines galoppiedenden Pferdes zu untersuchen. Dabei erreichte er eine Belichtungszeit von 1/100 s und löste die Kameras über Fäden aus (Blickhan & Seyfarth, 2010, S. 31). Sein Nachweis erbrachte, dass beim Traben die Pferde vom Boden abheben.
Grundbegriffe der Bildmessung
Es wird zwischen zwei „Räumen“ in der Bildmessung unterschieden, dem Objekt- und Bildraum. Der Objektraum bezeichnet die reale Welt und der Bildraum nur eine Abbildung dieser Welt. Der Linseneffekt erzeugt eine vertikale Spiegelung des realen Objekts: Alles was mit einer Kamera aufgenommen wird, wird spiegelverkehrt verarbeitet (s. Abb. 1).
Der Brennpunkt (F) sammelt alle parallelen Lichtstrahlen in einem Punkt, die Brennweite bezeichnet den Abstand zwischen Brennpunkt F und optischer Linse. Typische Werte für die Brennweite sind 25 mm beim Normalobjektiv, 150 mm beim Teleobjektiv und 13 mm beim Weitwinkelobjektiv (Blickhan & Seyfarth, 2010, S. 9). Es gelten folgende Grundsätze zwischen dem Brennpunkt F und Bildpunkt B:
;#;
$\frac{b}{f}=\frac{b'}{o}\ \ \ \ \ $ (1)
;#;
Das Verhältnis zwischen Bild- und Brennweite entspricht dem Quotienten aus dem Abstand b' (Brenn- und Bildpunkt) und der Objektweite (o).
In der Realität ist die Bildweite b winzig verglichen mit der Objektweite o. Aufgrund folgender Gesetzmäßigkeit kann man sagen, die Brennweite entspricht der Bildweite (s. Gleichung 2).
;#;
$\frac{1}{f}=\frac{1}{b} + \frac{1}{o}\ \ \ \ \ $ (2)
;#;
Da $\frac{1}{o} \approx 0$ kann man sagen, dass $f \approx b$ (Winter, 2009, S. 68).
Blende
Die Menge an Licht, welches in das Objektiv einstrahlt, kann durch die Blende gesteuert werden. Standardisierte Einstellungen der Blendenöffnung sind: 22, 16, 11, 8, 5.6, 4, 2.8 und 2. Das Verhältnis zwischen Blendenöffnung und -wert ist umgekehrt proportional, z.B. meint die Bezeichnung $\frac{f}{22}$, dass die Linse zu 1/22 vom Gesamtdurchmesser geöffnet ist. Je größer der Wert, umso kleiner die Blendenöffnung. Um die Lichtanforderungen auf ein Minimum zu reduzieren, sollte die Blende geöffnet sein (→ niedriger Blendenwert) (Winter, 2009, S. 54f.).
<spoiler|Um welchen Faktor ändert sich die Blendengröße, wenn vom Wert 22 auf 11 gewechselt wird? >
Die Linse von vorne betrachtet hat die Form eines Kreises. Deren Flächeninhalt lässt sich durch die Formel $A = \pi * r^2$ beschreiben. Es ist zu sehen, dass die Änderung des Radius einen quadratischen Einfluss hat auf die Fläche. Bei einer Halbierung des Durchmessers vervierfacht sich dementsprechend der Flächeninhalt.
</spoiler>
Vergrößerung
Die Vergrößerung eines optischen Instruments ist das Verhältnis zwischen der scheinbaren Größe (Größe des Bilds) und der wahren Größe eines Objekts. Durch eine zweite Linse im Okular der Kamera wird der Vergrößerungseffekt erzielt. Dabei ist der Abstand $f'$ zwischen Brennpunkt und Okular geringer als Abstand $f$. Der Vergrößerungsfaktor trägt das Symbol $M$ und kann durch folgende Gesetzmäßigkeit beschrieben werden:
;#;
$M = \frac{\beta}{\alpha}=\frac{f}{f'}$
;#;
<spoiler|Wie lässt sich die Bildgröße s berechnen? >
$s=\alpha * f\ $ oder $s=\beta * f'\ $
</spoiler>
Von 2D nach 3D
„Bei der optischen Abbildung wird von dem in der Regel räumlich ausgedehnten Objekt mittels eines Objektivs ein ebenes – im allgemeinen verkleinertes – Bild erzeugt“ (Baumann & Preiß, 1996, S. 88). Die Reduzierung des dreidimensionalen Objektraumes in die zweidimensionale Bildebene bedeutet einen Verlust an Information. Ist die Bildebene parallel zur Objektebene, sind Beziehungen zwischen Bild und Objekt besonders einfach (Baumann & Preis, 1996, S. 88f.):
- Geraden werden als Geraden abgebildet
- Winkel bleiben bei der Abbildung unverändert erhalten
- Alle Strecken werden in gleichem Maßstab verkleinert
In der Praxis ist dies häufig nicht der Fall und es muss eine mehr oder minder gute Näherung des einfachsten Abbildungsfalles realisiert werden. Der Abbildungsprozess ist mit entsprechenden Fehlern behaftet. Wenn die abgeschätzten Fehler nicht tolerierbar sind, muss eine 3-dimensionale Bestimmung der Objektkoordinaten erfolgen (Baumann & Preis, 1996, S. 88ff.).
2D-Bewegungserfassung
Bei der 2-dimensionalen Bewegungserfassung erfolgt die Bildverarbeitung in einer Ebene. Im Optimalfall steht die fixierte Kamera senkrecht zur Bewegungsebene. Der Maßstab für die Breite und Höhe des Bildes bleibt erhalten. Es müssen entsprechende Kameraeinstellungen (Belichtungsfrequenz, Belichtungszeit, externe Lichtquellen, etc.) getätigt werden, um die gewünschte Bildschärfe zu erhalten.
3D-Bewegungserfassung
Um die Raumkoordinaten eines Objektpunkts eindeutig zu bestimmen, sind mind. zwei von unterschiedlichen Standorten aus aufgenommene Messbilder erforderlich. Mit Hilfe elektro-optischer Systeme werden die Koordinaten von Markern, die auf ausgewählte Punkte des Körpers (oder bewegte Sportgeräte) angebracht werden, in Echtzeit aufgezeichnet.
Schwameder (2009, S. 93ff.) unterscheidet zwischen Aktiv-Marker Systemen und Aktiv-Kamera Systemen. Bei den Aktiv-Marker Systemen senden Marker ein Funksignal aus, das von Kameras erfasst wird. Zu den wichtigsten Vertretern der Aktiv-Kameras zählen die Infrarot Systeme (z.B. Qualisys). Hier senden spezielle Arrays, die um die Kameraoptik angeordnet sind, ein Infrarotlicht aus, das von am Körper aufgeklebten Markern reflektiert und von den Kameras erfasst wird. Für störungsfreie Markererkennung sind mindestens 6 Aktiv-Kameras notwendig. Ein wichtiges Kriterium ist, dass die Kameras entweder synchron laufen oder der zeitliche Versatz der Videoaufnahmen bekannt ist.
Direkte Lineare Transformation
Die Kalibrierung des Raumes bei 3D Aufnahmen kann mithilfe der direkten linearen Transformation (DLT) erfolgen. Ein Referenzpunktesystem mit mind. 6 Punkten ist dabei notwendig. Dieses Referenzpunktesystem sollte den Objektraum weitestgehend ausfüllen. Eine Formel zur Berechnung der DLT findet sich hier:
;#; ;#;
Die gesuchten Parameter $x_k$ und $y_k$ sind die Bildkoordinaten. Diese können anhand der mit dem Kamerasystem erfassten Raumkoordinaten $X$, $Y$ und $Z$, sowie den DLT-Koeffizienten $l_{1-11}$, berechnet werden. Dabei werden die Referenzpunkte von allen Kameras gefilmt und durch Digitalisierungsprozesse werden deren Bildkoordinaten bestimmt. Nach erfolgter Bildkalibration dürfen weder die Positionen und opischen Achsen, noch die Brennweiten der Kameras verändert werden (Schwamder, 2009, S. 96).
Eine nähere Ausführung über die DLT ist im Tutorial MMB5 nachzusehen.
Vor- und Nachteile
Die Vorteile bzw. Nachteile eines elektrooptischen Systems sind in folgender Tabelle aufgelistet (Winter, 2009, S. 63f.):
Vorteile | Nachteile |
---|---|
Daten werden in einem globalen Bezugssysteme dargestellt | Viele Multi-Kamerasysteme sind teuer |
Es können beliebig viele Marker angebracht werden | Manche Bildsysteme können nicht in Freiluft verwendet werden (z.B. Infrarotsysteme) |
Reflektierende Marker sind nur ein geringer Ballast für den Körper | Limitierte Anzahl an Lichtquellen, i.e. Kameras |
Aufzeichnungen können für Lehr- und Forschungsprojekte wiederverwendet werden |
Anwendung: Optotrak
Bei diesem System sind 3 Minikameras in Reihe angeordnet (s. Abb. 4). Die beiden äußeren Kameras sind mit ihren horizontal ausgelegten Dioden nach innen gerichtet. Sie definieren jeweils die Lage aller Marker in der vertikalen Ebene. Die Kameralinse in der Mitte scannt die Marker in horizontaler Ebene. Der Schnittpunkt der horizontalen Ebene und der beiden vertikalen Ebenen definiert einen einzigartigen Punkt im 3-dimensionalen Raum.
Beim Pulsieren des Infrarotlichts werden die x-, y- und z-Koordinaten in einem globalen Bezugssystem erfasst. Das gepulste Licht der 2./3. Lichtquelle liefert eine weitere Vertikal- und Horizontalebene, i.e. neue x, y und z-Koordinaten.
Zusammenfassung
Literatur
Baumann, W. & Preiß, R. (1996). Biomechanische Meßverfahren. In R. Ballreich & W. Baumann (Hrsg.). Grundlagen der Biomechanik des Sports (S. 75-102). Probleme, Methoden, Modelle. Stuttgart: Ferdinand Enke Verlag.
Schwameder, H. (2009). Einführung in die Kinemetrie. In A. Gollhofer (Hrsg.), Handbuch Sportbiomechanik (S. 88-103). Schorndorf: Hofmann.
Blickhan, R. & Seyfarth, A. (2012). Forschungsmethoden der Biomechanik. Teil B: Optische Verfahren. Präsentationsfolien im Rahmen der Veranstaltung Biomechanik II Messverfahren WS 2009/10. Darmstadt: Institut für Sportwissenschaft.
Winter, D. (2009). Biomechanics and Motor Control of Human Movement. Hoboken, New Jersey: John Wiley & Sons, Inc.