Benutzer-Werkzeuge

Webseiten-Werkzeuge


biomechanik:projekte:ws2122:wp2126

WP2126 Maschinelles und Menschliches Lernen von Motor- und Körperkontrolle

indexmenu_n_1

Modul-Icon
Modul-Titel WP2126 Maschinelles und Menschliches Lernen von Motor-
und Körperkontrolle
Veranstaltung PS Biomechanik
Autor J. Albers, R. Hartmann, S. Kohaut
Bearbeitungsdauer 45 Min
Präsentationstermin 03.02.2022
Status finalisiert
Zuletzt geändert 03.03.2022

1. Einleitung

Mensch und Maschine müssen gleichermaßen in der Lage sein, motorische Fähigkeiten aus Erfahrungen zu erlernen. Während sich Fähigkeiten sowohl in der Form von Planungs- als auch der eigentlichen Ausführungs- oder Kontrollqualität beschreiben lassen, sind Erfahrungen die Menge der sensorischen und der bewertenden Eindrücke. Wie diese Eindrücke bei Maschinen und Menschen aufgenommen und verarbeitet werden können, wo es Gemeinsamkeiten, Parallelen und Unterschiede gibt und wie erlernte Aktionen modelliert und kontrolliert ausgeführt werden können, soll hier dargelegt werden.

Zunächst werden menschliche und maschinelle Systeme als Verbindungen von Motorik und Sensorik verglichen. Dabei wird unter anderem auf die Aktorik, Kinematik und das dynamische Verhalten der beiden Systeme eingegangen. Anschließend werden gängige Modelle des Lernens aus der Robotik sowie dem menschlichen motorischen Lernen dargelegt und gegenübergestellt. Hierbei werden insbesondere das Lernen aus Beispielen sowie die Einflussnahme des Lernenden auf den Lernprozess betrachtet. Anhand von Fallbeispielen soll schließlich die Anwendung und Relevanz der dargelegten Modelle veranschaulicht werden.

Das folgende Video soll bei der Verdeutlichung helfen, welche Möglichkeiten moderne Robotik bereits bietet. Zu sehen ist der Roboter Atlas der Firma Boston Dynamics beim Parkour.

verfasst von S. Kohaut

2. Grundlagen

Dieser Abschnitt legt die Grundlagen der Mechanik, Sensorik und des Lernens im Kontext der künstlichen Intelligenz und des menschlichen Lernens dar. Dabei wird jeweils gesondert auf Teilaspekte der Modelle des Lernens eingegangen.

Der Begriff des Lernens ist wissenschaftlich nicht einheitlich definiert. In diesem Wiki ist damit die langfristige Aneignung und Verbesserung von (insbesondere motorischen) Fähigkeiten durch ein aktuiertes System gemeint, wobei Erfahrungen aus vergangenen Aktionen vorausgesetzt werden.

verfasst von S. Kohaut

2.1 Mensch und Maschine im Vergleich

Um das Lernen bei Menschen und Maschinen verstehen und vor allem vergleichen zu können, muss man zunächst einige grundlegende Unterschiede kennen. Denn selbst wenn Maschinen (in Teilen) als Abbild des Menschen entworfen werden, gibt es zahlreiche prinzipielle, systematisch bedingte Differenzen zwischen Biologie und Technik. Diese beziehen sich sowohl auf Mechanik, Signalverarbeitung und -weiterleitung, als auch auf die „Intelligenz“ hinter dem Lernprozess. Diese grundlegende Verschiedenheit soll im Folgenden aufgeschlüsselt werden.

Abbildung 1: Ebenen, auf denen Bewegungslernen bei biologischen und technischen Systemen verglichen werden kann.


Mechanik

Die Biomechanik thematisiert, nach welchen physikalischen Gesetzen Bewegungen (menschlicher) Körper ausgeführt werden können. Die Gesetze sind für Maschinen dieselben, allerdings werden hier Bewegungen meist anders realisiert.

Ein wesentlicher Unterschied liegt hier in der Aktorik: Die Gliedmaßen fast aller Tiere werden mit Muskeln bewegt. Hierbei führt eine kollektive Verkürzung von Muskelfasern unter Einsatz chemisch gebundener Energie zu einer Kontraktion des gesamten Muskels (vgl. MUS1 Bau & Funktion). Diese Bewegung ist an sich rein translatorisch. Der Muskel kann nur in eine lineare Dimension Kraft ausüben, genauer gesagt sogar nur in eine Richtung: eine Zugkraft (MUS1 Bau & Funktion). Rotatorische Bewegungen, wie sie an den Gelenken der Gliedmaßen auftreten (z.B. Ellenbogen), werden anschließend durch komplizierte Umlenkmechanismen mithilfe von Sehnen erreicht, die in sehr diversen biomechanischen Verhaltensweisen resultieren (MUS2 Muskelmechanik).

Bei Maschinen, insbesondere Robotern, gibt es eine unbegrenzte Vielfalt von Bauarten. Dieser Umstand allein macht den Vergleich kompliziert. So werden als Aktoren beispielsweise Zylinder eingesetzt, die ebenfalls eine Translation ausüben. Zudem gibt es Forschung im Bereich künstlicher Muskeln (vgl. WP1610 Künstliche Muskeln). Am meisten verbreitet ist jedoch nach wie vor, dass Elektromotoren direkt ein Drehmoment auf die Gelenke ausüben. Der unterschiedliche Aufbau der Maschinen bedingt auf mehrere Arten die Unterschiede im Lernprozess. Der offensichtlichste Unterschied ist hierbei, dass für einen Freiheitsgrad nur ein Motor benötigt wird aber mindestens zwei Muskeln. Meistens sind es aber ganze Gruppen von Muskeln, die die Bewegung an einem Gelenk realisieren. Dadurch, aber auch durch oben erwähnte komplizierte Mechanismen, ergibt sich eine deutlich anspruchsvollere Bewegungssteuerung.

Des Weiteren ist die Ansteuerung der Aktoren anders aufgebaut (siehe unten: Signalleitung). Zudem verhalten sich die Aktoren verschieden in Bezug auf die Kraftausübung bei unterschiedlichen Lasten, Winkelstellungen der Gliedmaßen und Steuersignalen (vgl. MUS3 Kraft-Relationen, MUS4 Produktansatz und MUS5 Muskel-Skelett).

Abbildung 2: Armkinematik bei Mensch und Roboter. Dargestellt sind die Rotationsachsen aller sieben Gelenke von der Schulter (bzw. der Basis des Roboters) bis zum Handgelenk. Die Längenproportionen der zwei Arme sind willkürlich gewählt, entscheidend ist die Abfolge und Richtung der Achsen.

Ein weiterer wesentlicher Aspekt ist die Kinematik. Auch hier gibt es in der Robotik eine unbegrenzte Vielzahl an Entwurfsmöglichkeiten. Die Grundprinzipien sind jedoch immer dieselben wie bei biologischen Systemen. Gliedmaßen sind in beiden Fällen eine (meist offene) kinematische Kette, bestehend aus mehreren Gliedern fester Länge, die durch Gelenke verbunden sind und so ihre definierten Freiheitsgrade erhalten (DYN5 Mehrkörpersysteme). Obwohl es hier auch wieder prinzipielle Unterschiede gibt (z.B. lassen sich mit Motoren praktisch keine Kugelgelenke definiert bewegen), sind robotische Systeme oft recht nah an der menschlichen Kinematik, selbst wenn sie nicht mit dem Ziel der Nachahmung gebaut wurden. So hat das weit verbreitete Konzept des sechs- oder siebenachsigen Roboterarms fast die gleiche Anordnung von Achsen wie der menschliche Arm (Abb. 2).

Jedes Gelenk stellt für den nachfolgenden Teil der kinematischen Kette einen Freiheitsgrad (degree of freedom, DoF) her, beziehungsweise zwei im Falle eines Kugelgelenks. Die Anzahl der DoF der gesamten Kette entspricht bei einer offenen Kette gemäß (DYN5 Mehrkörpersysteme) der Anzahl der Segmente. In obigem Beispiel des Arms wären dies 7: die Beweglichkeit der Hand wird hier vernachlässigt, man muss jedoch beachten, dass in Schulter und Unterarm jeweils auch eine axiale Rotation ausgeführt werden kann (hier A3 und A5), was im Modell durch getrennte Segmente dargestellt wird. Bei einer geschlossenen Kette, beispielsweise wenn beide Beine auf dem Boden stehen, ergibt sich die Anzahl der DoF aus der Anzahl der Glieder minus drei (DYN5 Mehrkörpersysteme).

Das dynamische Verhalten dieser kinematischen Kette müssen alle sich bewegenden Systeme gleichermaßen „kennen“ beziehungsweise „erlernen“. Hierbei ist schwierig, dass sowohl der menschliche als auch der robotische Körper relativ lange kinematische Ketten besitzen. Um eine bestimmte Bewegung auszuführen, zum Beispiel eine Translation des Endeffektors wie die Hand beim Menschen, muss also für eine große Anzahl an Gelenken „berechnet“ werden, welche gemeinsame Rotation in der Summe zu dieser Translation führt. Diese Berechnung wird als Vorwärtskinematik bezeichnet. Aus der sehr großen Zahl an Freiheitsgraden resultiert dabei eine sehr große Anzahl an Möglichkeiten, diese Bewegung mithilfe der einzelnen Achsen auszuführen. In der Literatur wird dies als „degrees of freedom problem“ bezeichnet (Rosenbaum, 2010). Bewegungslernen ist also in erster Linie die Kunst, die bestmögliche Vorwärtskinematik anhand gewisser Maßstäbe für ein gegebenes Problem zu ermitteln. Diese Maßstäbe können Geschwindigkeit, Kraft, Positionsgenauigkeit und eine Kombination daraus sein. (Terjung, 2011)


Sensorik, Signalverarbeitung und Signalleitung

Ein zweiter deutlicher Unterschied besteht in der Art der Mess- und Steuersignale. Die Drehrichtung und Geschwindigkeit beziehungsweise Kraft eines Motors wird durch die Stärke des Stroms gesteuert, der ihn durchfließt. Dieser Strom wird durch Kabel übertragen und durch elektronische Bauteile anhand eines digitalen Steuersignals geregelt. Eine Vergleichsgröße für diesen Regelkreis (closed loop control) liefern Sensoren, die den Winkel der Achsen bestimmen, sogenannte Drehgeber. Viele Roboter nutzen zudem verschiedene Kraft- und Beschleunigungssensoren. (Reif, 2016)

Biologische Motorkontrolle („Motor“ hier im Sinne von „motorisch“) unterscheidet sich hiervon in mehreren Aspekten. Die Signale sind das elektrochemische „Feuern“ hintereinander geschalteter Neurone, ausgehend vom zentralen Nervensystem. Hierbei gibt es nicht eine einzelne Leitung zum Aktor, sondern tausende motorische Nerven zu Bündeln von Muskelfasern, den motorischen Einheiten (MUS1 Bau und Funktion). Der wesentliche Unterschied in Bezug auf das Lernen besteht hier im Zusammenspiel zwischen Nerven und Muskelfasern. Im Gegensatz zum elektronischen System kann sich hier durch häufige Ausführung bestimmter Bewegungsmuster die Struktur der Nervenverbindungen ändern. In Kombination mit der Veränderlichkeit der Muskelfasern (s.o.) findet in der Folge bereits eine Adaption, also eine gewisse Art des Lernens, direkt am Aktor, fernab des Gehirns statt.

Deutlichen Einfluss haben außerdem die andersartigen Sensordaten. Biologische Systeme besitzen ein Vielfaches an „Sensoren“ im Vergleich zu Maschinen, mit einer ebenfalls viel größeren Vielfalt und schwerer kalkulierbarem Rauschverhalten (Harris und Wolpert, 1998). Dabei geht es nicht nur um unzählige sensorische Nerven, die die Stellung der Muskeln rückmelden. Für Motorkontrolle und Lernen spielen noch viele weitere sensorische Daten eine Rolle, darunter Tastsinn, Sehen, Schmerzen, Temperatur, Gleichgewicht. Daraus wird klar, dass die Signalverarbeitung und Regelung weitaus komplexer ist, als wir sie mit technischen Systemen nachbilden können.


Das lernende System

Der für dieses Wiki bedeutendste Unterschied zwischen Mensch/Tier und Maschine ist jedoch das Teilsystem, in dem das eigentliche Lernen stattfindet. In der Kognitionswissenschaft werden viele ausgedehnte Debatten geführt, inwieweit Gehirn und Computer prinzipiell vergleichbar sind. Für diese Diskussion sind insbesondere die Idee der Computermetapher (z.B. Turing, 1950) und der Konnektionismus wichtig zu erwähnen. Letzterer ist auch die Grundlage für künstliche neuronale Netze.

Doch welche Analogie man für das Gehirn auch wählt, in der Praxis gibt es viele Unterschiede zwischen Gehirn und Computer, von denen einige kurz erläutert werden sollen. Der wesentlichste ist die rein quantitative Komplexität: das Gehirn besteht aus über 80 Milliarden Nervenzellen, die wiederum mit 100 Billionen Synapsen miteinander vernetzt sind (Das Gehirn, o.D.). Diese Zahlen sind technisch unmöglich mit Transistoren nachzuahmen. Obwohl die Rechenleistung des Gehirnes nicht mit den gleichen Maßstäben wie die von Computern messbar ist, wird klar, dass zum jetzigen Stand der Technik die Informationstechnologie nicht mit der Biologie mithalten kann.

Warum sind Computer trotzdem in vielem besser, beispielsweise im Schach? Das menschliche Gehirn ist nicht auf numerische Berechnungen ausgelegt. Vielmehr bestehen seine großen Talente darin, viele Daten parallel zu verarbeiten und zu filtern, Sachverhalte abzuschätzen und sich auf Basis dieser Informationen an neue Situationen anzupassen. In anderen Worten: das Gehirn ist von vornherein auf das Lernen ausgelegt. Zentraler Mechanismus hierfür ist die sogenannte Neuroplastizität, also die Fähigkeit von Synapsen, ihre Verbindungen zu ändern, um ein neues kognitives Verhalten zu erzeugen. (Kampfhammer, 2000)

Diese Qualität zeigt sich insbesondere in der Effizienz von Lernvorgängen. Während ein machine-learning-Algorithmus beispielsweise zum Erlernen der visuellen Kategorisierung von Hunden und Katzen hunderte, wenn nicht tausende Beispielbilder benötigt, hat ein Kind diese Einteilung schon nach wenigen Beispielen verstanden. Dem gegenüber steht allerdings, dass Menschen nur aus realen Daten aus ihrer Umgebung lernen können, während Computer auch in der Lage sind, aus Simulationen zu lernen und aus den gegebenen Lerndaten weitere abzuleiten.

Für das hier behandelte Thema ist schließlich eine weitere Frage zentral: Wofür haben wir überhaupt ein derart komplexes Denkorgan? Der Neurowissenschaftler Daniel Wolpert erklärt in folgendem weiterführenden Video, der einzige Sinn und Zweck unseres Gehirns sei, „anpassbare und komplexe Bewegungen auszuführen“, da dies unsere einzige Interaktionsmöglichkeit mit der uns umgebenden Welt ist. Das erklärt, warum gerade das Lernen von Bewegungen so erstaunlich gut funktioniert.

verfasst von J. Albers

2.2 Menschliches Lernen

Motorisches Lernen beim Menschen ist ein komplexer, bisher nicht vollständig erklärbarer Prozess. Wie beschrieben, ist bekannt, dass Bewegungen und ihr Erlernen durch kognitive Vorgänge (WP2002 Bewegung und Kognition), Einflüsse der Umwelt, biologische Vorgänge in den Muskeln und vieles mehr entstehen und beeinflusst werden. Deshalb gibt es viele verschiedene Ansätze, die den Lernprozess auf unterschiedlichen Betrachtungsebenen zu erklären versuchen.
Alle verstehen motorisches Lernen dabei als langfristige Änderung der Bewegungsfähigkeit. Weitere interne Zustände wie Motivation und Emotion beeinflussen zwar Bewegungen (WP1907 Motions and Emotions), ihre Effekte werden jedoch nicht zum Lernen gezählt. (Schmidt, 2019)
Im Folgenden werden die zwei gegenüberstehenden Ansätze des motor und des action approaches betrachtet, die motorisches Lernen von einer abstrakteren Ebene betrachten. Diese Auswahl wurde getroffen, um konkreten Bezug zum Trainingsprozess herstellen und einen besseren Vergleich zum maschinellen Lernen bieten zu können.


Motor Approach

Der motor approach basiert darauf, das Gehirn als reines Informationsverarbeitungssystem und den Computer als Metapher zu betrachten (Birklbauer, 2006). Bewegungen existieren demnach als zentrale interne Repräsentation, und können ohne peripheres Feedback gesteuert werden (Keele & Summers, 1976).
Für die im motor approach vertretenen Schema-Theorien soll die Schema-Theorie nach Schmidt als Beispiel dienen, die zum Großteil auf dem Prinzip der Generalisierten Motorischen Programme (GMP) basiert. Dabei handelt es sich um Bewegungsabfolgen einer komplexen Bewegungsklasse, die im Gedächtnis abgespeichert werden und durch entsprechende Parameter an die jeweilige Bewegung angepasst werden. Somit müssen nicht alle Teilbewegungen bzw. Muskeln einzeln, sondern komplexere Bewegungen abstrahiert im Gesamten ohne die Verwendung sensorischer Rückinformationen gesteuert werden (Loosch, 1999).
Bewegungen beinhalten also unveränderliche Eigenschaften, die bei jeder Ausführung gelten, und variable Parameter, die für die Anpassung der Bewegung an die entsprechende Situation erforderlich sind (Schmidt, 2019).

Abbildung 3: Das Schema als Funktion. a) Bei wenigen Funktionswerten bildet die Funktion die Situationsbedingungen nicht akkurat auf die Parameter ab. b) Bei mehr Funktionswerten ist diese Abbildung akkurater. (nach (Loosch, 1999))

Insgesamt sind vier Informationen für die Ausführung einer Bewegung bzw. eines GMPs erforderlich (Birklbauer, 2006; Schmidt, 1975):

  • Bedingungen vor Bewegungsbeginn:
    Wahrnehmung der Umgebungsbedingungen und der Körperposition
  • (Zeit- und Kraft-) Parameter für das GMP:
    Die variablen Parameter wie Kraft und Dauer müssen vor Bewegungsbeginn festgelegt werden
  • Sensorische Konsequenzen:
    propriozeptives und exterozeptives Feedback (WP1215 Körperwahrnehmung, WP1908 Bewegungswahrnehmung)
  • Bewegungsergebnis in Form von Knowledge of Result (KR):
    externes Feedback zum Erfolg der Bewegung verglichen mit dem erwünschten Ergebnis

Der Zusammenhang dieser Informationen und der eingesetzten Parameter für einzelne Bewegungen wird als Abstraktion gespeichert (Schmidt, 1975). Diese Abstraktion der Bewegung stellt das Schema dar. Man kann sich das Schema also als eine Funktion vorstellen, die die jeweiligen Bedingungen auf die notwendigen Parameter abbildet (Loosch, 1999) (Abb. 3a). Je öfter die Bewegung durchgeführt wird, desto mehr Funktionswerte liegen vor und desto genauer wird der Zusammenhang (Abb. 3b). Mithilfe dieser Funktion können anschließend die Parameter für neue Bewegungen besser abgeschätzt werden.

Schmidt (1975) unterteilt das Schema noch in Recall und Recognition Schema (Abb. 4). Diese verwenden jeweils eine unterschiedliche Auswahl der vier Informationen. Das Recall Schema ist hauptsächlich für die Bewegungsproduktion relevant. Hierfür legt es die GMP-Parameter wie Muskelkraft fest, um die Bewegung entsprechend dem Bewegungsziel für eine korrekte Ausführung zu programmieren. Parallel zu dieser Parameter-Spezifikation werden im Recognition Schema die erwarteten sensorischen Konsequenzen festgelegt. Nach oder auch während der Bewegung wird der Unterschied zwischen tatsächlichem und erwartetem Feedback an das Schema übergeben, woraufhin entsprechende Korrekturen vorgenommen werden (Schmidt, 1975).

Abbildung 4: Das Schema-Modell nach Schmidt (1975). In blau dargestellt ist das Recall Schema, in grün das Recognition Schema. Beide verwenden jeweils verschiedene Informationen (rot). (nach (Schmidt, 1975))


Action Approach

Abbildung 5: Kelso-Bewegung vor dem Phasenübergang. Die Bewegung beginnt mit einer parallelen Bewegung der Zeigefinger, wobei die Frequenz stetig erhöht wird.

Der action approach mit seinen systemdynamischen Modellen geht davon aus, dass Bewegungen durch die Selbstorganisation des Individuums und seiner Eigenschaften entstehen (Schöllhorn, 1999). Mit Selbstorganisation ist hier gemeint, dass sich Struktur und Ordnung aus dem System selbst, ohne direkte periphere Einflüsse ergeben (Haken et al., 2016).
Dieser Ansatz unterteilt sich in einige unterschiedliche Unterkategorien. Alle behaupten, dass es keine zentrale, übergeordnete Instanz gibt, und fokussieren sich auf die direkte Interaktion zwischen Umgebung, Organismus und Aufgabe (Newell et al., 1989). Zwei beispielhafte Modelle im Bereich des action approaches sollen hier betrachtet werden.

Abbildung 6: Kelso-Bewegung nach dem Phasenübergang. Ab einer individuellen Frequenz entstehen Fluktuationen und danach der Übergang zur antiparallelen Bewegung.

Nach dem ecological approach steht die Person durch die Wahrnehmung untrennbar mit der Umwelt in Verbindung, statt eine interne Repräsentation der Bewegung zu besitzen (Kugeler et al., 1982).
Im Rahmen der Time-to-Contact-Hypothese ist ihr wegen dieser Beziehung automatisch die Zeit bis zum Zusammenstoß mit einem Objekt gegeben. Ohne zusätzliche Berechnung weiß ein Hürdenläufer also durch die Wahrnehmung seiner Umgebung, wann er sein Bein anheben muss.
Zusätzlich werden einzelne Objekte mit ihrer Affordanz, d.h. ihrem Aufforderungscharakter oder ihrer Funktion, wahrgenommen (Birklbauer, 2006). Beispielsweise lädt eine kleine Spalte zwischen zwei Mauern zum Springen ein, während eine große Lücke dies nicht tut. Die Affordanzen hängen dabei von dem Individuum ab und werden mit ihm in Relation gesetzt. Untersuchungen zeigten beispielsweise, dass Personen abhängig von ihrer Körpergröße einschätzten, welche Stufenhöhe sie bewältigen können (Warren, 1984).

Des Weiteren übernahm der action approach einige Aspekte aus dem Bereich der Synergetik. Diese beschäftigt sich mit Systemen, die aus mehreren Teilkomponenten bestehen und Ordnung auch durch Selbstorganisation erzeugen (Haken et al., 2016). Das Gesamtsystem hat dabei Eigenschaften, die nicht linear auf die Eigenschaften der Teilkomponenten zurückgeführt werden können (Haken et al., 2016).
Besonders relevant für die motorische Kontrolle sind die nicht willkürlichen Phasenübergänge zwischen verschiedenen Systemzuständen (Schöllhorn, 1999). Bekanntes Beispiel ist die Kelso-Bewegung: Bewegt eine Person ihre Zeigefinger seitlich parallel und erhöht die Frequenz, kommt es ab einer gewissen Frequenz erst zu instabilen Fluktuationen und anschließend zum Wechsel in eine stabilere antiparallele Bewegung (Abb. 5 und 6). Erst dieser zwischenzeitliche instabile Zustand mit Schwankungen ermöglicht dem System den Wechsel in einen stabileren Zustand (Schöllhorn et al., 2015).


Motor Approach und Motorisches Lernen

Abbildung 7: Vergleich variablen und nicht-variablen Übens. a)Nicht-variables Üben kann aufgrund des geringen Streuungsbereichs nicht ausschließen, dass die Funktion Werte für andere Bedingungen (rot) schlecht abbildet; evtl. müsste die Funktion anders verlaufen (rot).
b) Variables Üben stellt wegen des großen Streuungsbereichs sicher, dass die Funktion verschiedene Bedingungen akkurat auf die notwendigen Parameter abbildet. (nach (Loosch, 1999))

Im Rahmen der Informationsverarbeitungsmodelle wurden verschiedene Trainingsmethoden für eine bestmögliche Schema-Bildung untersucht.

Entgegen anfänglicher Intuition, möglichst viel Feedback zu geben, konnten Studien wie die von Winstein & Schmidt (1990) zeigen, dass Probanden mit nur 50% externer Rückmeldung bessere Leistungen im Transfer- und Recall-Test hatten als Probanden mit 100% Rückmeldung.
Eine mögliche Erklärung hierfür ist, dass die eigene intrinsische Rückmeldung in Form der sensorischen Konsequenzen durch die externen Rückmeldungen verhindert wird und daher nicht stabilisiert werden kann. Eine Reduktion des Feedbacks bedeutet daher Vorteile für das Erlernen der Invarianten. Rückmeldungen sind dennoch notwendig, um die Bewegung hinsichtlich des Ziels bewerten und basierend darauf die Parameter anpassen zu können. (Wulf, 1995)

Die Kontext-Interferenz bezeichnet die Randomisierung von Übungen innerhalb einer Übungseinheit. Anstatt Übungen A, B und C geblockt (AAA BBB CCC) zu üben, werden diese abwechselnd trainiert (ABC ABC ABC).
Trotz schlechterer Leistungen innerhalb einer Trainingseinheit zeigt die randomisiert übende Gruppe bessere Leistungen bei späteren Retentions- und Transferaufgaben. Auch hier sind die Vorteile, zumindest zum Teil, auf reduzierte Rückmeldungen zurückführbar, da ein Feedback vor dem wiederholten Ausüben der Übung den positiven Effekt der Randomisierung verringert. (Wulf, 1995)

Ähnlich wie die Kontext-Inferenz fordert die Variability of practice-Hypothese von Schmidt, möglichst viel Abwechslung in das Bewegungslernen zu integrieren (Hall & Magill, 1995; Schmidt, 1975). Nach dieser sollen die Parameter im Training durch verschiedene Situationsbedingungen wie unterschiedliche Wurfentfernungen möglichst variiert werden, um die Invarianten zu festigen (Schöllhorn et al., 2009). Durch diese Variation wird der Streubereich der Funktionswerte größer, wodurch das Schema als Funktion an Genauigkeit zunimmt (Loosch, 1999) (Abb. 7). Das heißt, in unbekannten Situationen können passendere Parameter ausgewählt und dadurch akkuratere Bewegungen ausgeführt werden.


Action Approach und Motorisches Lernen

Vertreter des action approaches sprechen sich ebenso für variables Üben aus. Dabei wird der Begriff der Variation noch weiter ausgelegt.
Ein wichtiger Ansatz ist hier das Differenzielle Lernen nach Schöllhorn. Dieser verwendet die Prinzipien der Synergetik und sieht Lernen als Prozess, von einem Zustand in den nächsthöheren Zustand des (verbesserten) Könnens zu wechseln (Schöllhorn et al., 2015). Für einen solchen Wechsel müssen nach der Synergetik vorerst Schwankungen entstehen, die die Selbstorganisation des Systems und den damit verbundenen Wechsel ermöglichen und allgemein als Fehler bezeichnet werden (Schöllhorn et al., 2015).

Abbildung 8: Vorschlag eines differenziellen Lernaufbaus für den Hochsprung. a) Variation der Umwelt durch Änderung der Hochsprunglatte. b) Variation der Anfangs- und Endbedingungen durch Anlauf aus verschiedenen Richtungen. c) Variation der Merkmalsumfänge durch Variation der Schrittlänge (durch die Dreiecke dargestellt)

Daher fordert Schöllhorn (1999), Fehler als Voraussetzung für das Lernen gezielt zu provozieren. Demnach soll möglichst jede Übung anders gestaltet sein, um einerseits aus vorkommenden Fehlern und andererseits durch die Fehler in Form von Variation zu lernen. So können zum Beispiel folgende Aspekte variiert werden (Birklbauer, 2006):

  • Variation der Anfangs- und Endbedingung:
    bspw. Übungsdurchführung mit gestreckten versus mit gebeugten Beinen
  • Variation der Merkmalsumfänge:
    bspw. Gehen mit längeren versus kürzeren Schritten
  • Variation der Bewegungsverläufe in Dauer und Rhythmus:
    bspw. federndes versus schleichendes Gehen

Es gibt keinen generellen Lehrplan, wie Bewegungen gelehrt und/oder gelernt werden sollen (Birklbauer, 2006). Wichtig ist jedoch, dass sich die lernende Person die Übungen selbst aussucht, um mit den erzeugten Fehlern individuell die beste Leistung zu erzielen (Schöllhorn, 1999).
Um außerdem auch die Interaktion zwischen Individuum und Umwelt zu integrieren, soll auch die Umwelt variiert werden (Birklbauer, 2006). Abbildung 8 liefert Vorschläge für ein differenzielles Lernen des Hochsprungs.

verfasst von R. Hartmann

2.3 Maschinelles Lernen

Maschinelles Lernen umfasst Methoden, bei denen anstelle von Programmierung durch einen Menschen ein Problem durch aus Daten erlernte Modelle gelöst wird. Dabei ist es von Vorteil, dass Problemlösungen automatisiert ermittelt werden können. Außerdem lassen sich so auch Probleme lösen, für die bis heute noch keine Algorithmische Lösungen existieren. Als Beispiel sei die Aufgabe genannt, automatisiert festzustellen, welche Objekte oder Tiere in einem Bild zu sehen sind. Diesen sogenannten Semantic Gap zu überbrücken, ist bis heute eine der häufigsten Anwendungen von maschinellen Lernen (Hare et al., 2006). In den folgenden Abschnitten wird auf die drei häufigsten Arten des maschinellen Lernens eingegangen. Diese unterscheiden sich darin, welche Art von Daten genutzt werden. Dabei wird jeweils ein simples Beispiel mit Bezug zur Biomechanik beschrieben und mit einer Methode aus der jeweils besprochenen Kategorie von maschinellem Lernen gelöst. Zum besseren Verständnis des Beispiels wurde der Quellcode in der Programmiersprache Python im Anhang zur Verfügung gestellt.


Supervised Learning

Abbildung 9: Das Ergebnis einer linearen Regression, angewandt auf simulierte Messdaten der Flughöhe eines Balles.

Als Supervised Learning bezeichnet man all jene Methoden, für die zu jedem Datenpunkt im Trainingsset ein sogenanntes Label gegeben ist. Ein Label ist dabei die gewünschte, für historische Daten in diesem Fall bekannte oder gemessene Ausgabe des zu erlernenden Modells. Oftmals ist das Labeln der Daten eine Aufgabe, die von Menschen manuell ausgeführt werden muss, da bis zum Zeitpunkt, an dem das Modell aus Daten erlernt werden soll, typischerweise noch keine automatisierte Lösung für das Labeln existiert. Als Beispiel für kollaboratives Labeln von Daten sei die Annotation des Inhaltes von Bildern oder die Digitalisierung von Texten aus alten Büchern genannt, welches mitunter durch Captchas im Internet durch große Massen an Nutzern geschieht.

Um für Supervised Learning Methoden genügend Daten zur Verfügung stellen zu können, werden einerseits große Datensets benötigt. Andererseits wird an Tools gearbeitet, um manuell Daten mit den korrekten Labeln zu versehen (Schraml et al., 2019). Schließlich sind Augmentierungsverfahren ein wichtiger Forschungsbereich, in dem aus existierenden Daten mehr Beispiele zum besseren Training generiert werden (Bloice et al., 2017).

Abbildung 9 zeigt exemplarisch die Anwendung der linearen Regression zum Erlernen der Parameter eines vertikalen Wurfes. Hierbei wurde die Höhe $y_i$ eines Balles zusammen mit dem jeweiligen Messzeitpunkt $t_i$ von einem simulierten Sensor aufgenommen. Zu beachten ist die Unsicherheit der Messung und die damit einhergehenden Schwankungen der Messwerte um die tatsächliche Trajektorie herum. Um die Parameter $\mathbf{\theta}$ des Wurfes zu erlernen, modellieren wir die Ballhöhe im Laufe der Zeit mit der folgenden Formel, wie man sie in ähnlicher Form auf der Wiki-Seite KIN3 Wurf & Sprung findet.

\[ y_\vec{\theta}(t) = \theta_0 + \theta_1 \cdot t + \theta_2 \cdot t^2 = \vec{\theta} \cdot (1 \quad t \quad t^2)^T \]

Hierbei wird zwar der Luftwiderstand nicht modelliert, dieser wurde jedoch bei der Simulation der Daten außer Acht gelassen. Um die Parameter aus den aufgenommenen Zeitstempeln $t_i$ und Höhen $y_i$ zu schätzen, suchen wir eine Lösung die den Abstand der Messwerte von der resultierenden, geschätzten Trajektorie minimiert. In diesem Beispiel entscheiden wir uns dafür, den durchschnittlichen quadratischen Abstand zu minimieren. Da es sich um ein lineares Modell handelt, können wir den Abstand aller Messwerte zu allen Schätzwerten in Matrixform wie folgt aufschreiben.

\[ \vec{\theta}^* = \arg \min_\vec{\theta} \left\lVert(X \cdot \vec{\theta} - \vec{Y})\right\rVert^2 \]

Hierbei wurden die aufgenommenen Zeitstempel in der Form $(1, t_i, t_i^2)$ in der Matrix $X$ und die aufgenommenen Wurfhöhen im Vektor $Y$ zusammengefasst. Um den konstanten Einfluss von $\theta_0$ zu berücksichtigen, wurde dem Vektor $X$ dabei noch der Wert 1 angehängt. Das Minimum wiederum finden wir für jene Parameter, für welche der Gradient des Abstandes 0 wird.

\[ \vec{\theta}^* = (X^T \cdot X)^{-1} \cdot X^T \cdot \vec{Y} \]


Unsupervised Learning

Abbildung 10: Messungen der Parameter von zwei sich unterscheidenden Aktionen. Durch Anwendung eines Clustering Verfahrens konnten die Zentren der jeweils verwendeten Parameter beziehungsweise eine Trennlinie, die zur Klassifikation genutzt werden kann, ermittelt werden.

Für viele Problemstellungen ist es entweder nicht möglich, Label verfügbar zu machen, oder die Exploration der Daten macht es gerade interessant, zu versuchen, ohne vorgegebene Label Strukturen und Features aus einem Datenset zu extrahieren. Obwohl ohne Label eine Quelle für Fehler, beispielsweise Messrauschen, aus dem Lernproblem herausfällt, ist Unsupervised Learning im Allgemeinen eine schwierigere Aufgabe als Supervised Learning, da weniger Informationen zur Verfügung stehen.

Besonders in der Biomechanik sind derartige Clusteringverfahren hilfreich, um separate Bewegungen und Gesten zu erkennen, sowie deren jeweiligen Parameter und Eigenschaften zu bestimmen. In Abbildung 10 ist ein Beispiel für ein Unsupervised Learning Problem und die Anwendung einer einfachen Klassifizierungsmethode dargestellt. Bei der Methode handelt es sich um das sogenannte k-Means Verfahren, bei welchem, ausgehend von einer Annahme, wie viele Klassen existieren, iterativ die Zentren dieser k-Klassen ermittelt werden. Als Daten verwenden wir bei diesem Problem die Parameter zweier horizontaler Würfe, die jeweils 25 mal in Simulation durchgeführt wurden. Ziel ist es also zu erkennen, dass es sich bei den Daten um zwei unterschiedliche Arten von Würfen handelt und wir neu aufgenommene Würfe zukünftig der korrekten Wurfart zuweisen können.


Reinforcement Learning

Ziel beim Reinforcement Learning ist es, eine Policy $\pi$ zur Auswahl der optimalen Aktion $a$ in Abhängigkeit eines Zustandes $s$ zu finden, welche die erwartete Belohnung maximiert. Das genaue Vorgehen zur Wahl der Aktion ist dabei abhängig davon, ob der erlernten Erwartungshaltung gefolgt werden soll, um das bestmögliche Ergebnis zu erzielen, oder zum Sammeln neuer Erfahrungen zum Beispiel eine Aktion gewählt wird, die in der Vergangenheit selten getestet und somit noch hohes Potential hat neue Informationen einzubringen. Im Reinforcement Learning ist also die Abwägung, wie sehr die verfolgte Strategie auf Exploration neuen Wissens oder Exploitation des Gelernten setzen soll, eine zentrale Herausforderung. Um tief in die Materie einzudringen, ist das Standardwerk „Reinforcement Learning: An Introduction“ von R. Sutton und A. Barto zu empfehlen.

Um den Reinforcement Learning Prozess zu veranschaulichen, wird ein typisches Spielzeugproblem betrachtet. Hierbei soll ein Pendel aus einer zufälligen Ausgangsposition in aufrechte Lage versetzt und dort gehalten werden. Das folgende Video zeigt die anfänglichen Versuche des untrainierten Modells.

Das Modell ist an diesem Punkt noch nicht erfolgreich darin, die Aufgabe zu lösen. Da es sich um ein Problem mit kontinuierlichem Zustands- und Aktionsraum handelt (Winkel des Pendels und Drehmoment am Motor), müssen Modell und Lernalgorithmus entsprechend mächtig sein. In diesem Fall ist das Ergebnis der Anwendung von der Methode Deep Deterministic Policy Gradient auf ein Neuronales Netz zu sehen.

Um sich mit dem Reinforcement Learning praktisch auseinander zu setzen, ist ein Blick auf das Framework Gym von OpenAI, mit welchem dieses Beispiel erstellt wurde, empfehlenswert.

verfasst von S. Kohaut

3. Lernen einer Motorischen Aufgabe

In diesem Kapitel werden die dargelegten Grundlagen des Lernens auf konkrete, motorische Aufgaben angewandt. Es soll damit die Verwendung und Relevanz der Modelle durch deren praktische Anwendung veranschaulicht werden. Da die Fallbeispiele aus unabhängigen Publikationen hervorgehen, unterscheiden sich die Anwendungsdomänen, da nach der jeweiligen Anschaulichkeit selektiert wurde.

verfasst von S. Kohaut

3.1 Mensch erlernt Basketball

Folgendes Beispiel soll den Ablauf eines menschlichen Lernprozesses im Sport verdeutlichen. Um einen besseren Vergleich mit dem maschinellen Lernen herzustellen, wird sich aufgrund ihrer Computeranalogie auf die Schema-Theorie konzentriert.

Neiman und Lowenstein (2011) untersuchten das Bewegungsverhalten von professionellen Basketballspieler*innen. Dabei wurden Würfe, deren Erfolg und die Anzahl der darauffolgenden Korbwürfe während realer Basketballspiele beobachtet. Es wird also nicht das Lernen einer neuen Bewegung betrachtet, sondern die Verbesserung dieser innerhalb eines begrenzten Zeitraums.

Die Sportler*innen erhalten beim Korbwurf ein direktes binäres Feedback, ob sie getroffen haben oder nicht. Dies stellt kein explizites externes Feedback dar, sondern Bewegungsergebnis sowie propriozeptives und exterozeptives Feedback müssen intrinsisch bewertet werden. Somit kommt es zu keiner Anpassung der Bewegungsinvarianten bei fehlerhafter Bewegungsausführung, wenn diese zu einem Treffer führte.
Dies ist im Einklang mit dem Ergebnis der Studie, dass nach einem erfolgreichen Korbwurf die Trefferquote geringer war als nach einem fehlgeschlagenen (Neiman & Loewenstein, 2011). Basierte der Wurf auf bestimmten Situationsbedingungen oder lagen Ausführungsfehler vor, kann dieser aufgrund der fehlenden Korrektur in anderen Kontexten nicht fehlerfrei übertragen werden. Wird hingegen verfehlt, werden im Schema Korrekturen vorgenommen.
Vergleichbar mit dem Reinforcement Learning muss allein durch die Handlungen in der Umwelt und den resultierenden Belohnungen eine Strategie entwickelt werden. Neiman und Lowenstein (2011) konnten darüber hinaus das beobachtete Verhalten mit einem Reinforcement Learning Algorithmus nachbilden, was den Vergleich beider Ansätze weiter verstärkt.

An dieser Stelle sollen Probleme dieser Erklärung angemerkt werden. Erstens ist das Wurfverhalten und -gelingen von vielen weiteren Parametern wie beispielsweise den Mit- oder Gegenspieler*innen abhängig (Neiman & Loewenstein, 2011). Zweitens können die Beobachtungen auch mit dem action approach erklärt werden. Die Bewegung entsteht also durch unmittelbare Interaktion mit der Umwelt und fehlgeschlagene Korbwürfe entsprechen den Fehlern, welche nach dem Differenziellen Lernen explizit für das Lernen gefordert werden.

verfasst von J. Albers und R. Hartmann

3.2 Roboter erlernt Air Hockey

Als ein Fallbeispiel des maschinellen Lernens eines von Menschen ausgeübten Sportes soll Air Hockey betrachtet werden. Das folgende Video zeigt, wie am Fachgebiet IAS zwei KUKA Arme erfolgreich Pucks annehmen, in Position bringen und Tore schießen (Liu et al., 2021).

Wie ein menschlicher Spieler muss dabei die Position, Geschwindigkeit und Beschleunigung des Pucks beobachtet werden. Hierzu wird ein Kamerasetup zusammen mit Computer Vision Algorithmen angewandt. Um das interne Physikmodell, welches Menschen für das Bewegungsvorhersehen und die Reaktion auf den ankommenden Puck nutzen, zu ersetzen, wird ein Modell des Pucks in einem Kalman Filter angewandt. Dieser gibt, auf Basis der vermuteten und der gemessenen Bewegungen, eine Wahrscheinlichkeitsverteilung der Puckposition für jeden Zeitpunkt aus.

Als Herausforderung beim Roboter Air Hockey wird die Bestimmung einer optimalen Schlagtrajektorie genannt. Für eine schnelle Bewegung des Pucks muss eine Trajektorie gefunden werden, bei der die größte Geschwindigkeit beim Aufschlag erreicht wird. Um die Experimente und Lernprozesse in Simulation durchführen zu können, müssen zudem die physikalischen Eigenschaften von Tisch, Schläger und Puck möglichst genau erfasst werden. Als Simulator wird die Software Gazebo angewandt, welche oft als Teil des Robot Operating Systems (ROS) Verwendung findet.

Die genaue Erklärung des algorithmischen Vorgehens beim Erlernen der Parameter der Stoßbewegungen würde den Rahmen dieses Wikis sprengen. Wichtig ist die Erkenntnis, dass es sich um ein typisches Beispiel aus dem maschinellen Lernen für Robotik handelt. Speziell wird sich mit den Problemen aus den Bereichen Sensorik, Zustandsschätzung, Simulation und Wegplanung beschäftigt.

verfasst von S. Kohaut

4. Diskussion

Dieses Kapitel soll die gewonnenen Erkenntnisse zusammenfassend besprechen und einen abschließenden Überblick über das Thema liefern. Im Anschluss folgt ein eigener Standpunkt, in dem wir uns kritisch mit den hier besprochenen Themen und der Zukunft der Forschung auseinander setzen.

4.1 Zusammenfassung und Ausblick

Lernen stellt einen maßgeblichen Prozess für Menschen und Maschinen dar. Während künstliche Intelligenz bereits seit langem erforscht wird, ist in den vergangenen Jahren das Potential für motorisches Lernen stark gewachsen. Trotz vieler Unterschiede zwischen Mensch und Maschine können im Bereich des Lernens Parallelen identifiziert werden. Der Fokus wurde hier auf informationsverarbeitende Vorgänge statt auf Vergleiche der untersten mechanischen Ebenen gelegt.

Obwohl der Mensch seinen Lernprozess selbst erlebt, können wir diesen bis heute nicht in allen Aspekten erklären. Forscher betrachten dieses Thema aus unterschiedlichen Perspektiven, um immer mächtigere Modelle zu beschreiben. Die vorgestellten Ansätze action und motor approach versuchen, die generellen Mechanismen zu erklären und basierend darauf Vorschläge für erfolgreiches Bewegungslernen zu liefern. Der motor approach geht von einer Hierarchie aus, in der das Gehirn als höchste Instanz Bewegungen steuert. Ihm dient die Computer-Metapher, indem Bewegungen als Algorithmus betrachtet werden, der durch Parameter an die jeweilige Situation angepasst wird. Der action approach geht hingegen davon aus, dass Mensch und Umwelt direkt miteinander in Beziehung stehen. Dabei werden statt einer Hierarchie komplexe Wechselwirkungen zwischen Akteur und Umwelt als Ursprung der Bewegungen gesehen.

Das maschinelle Lernen versucht, sowohl Beiträge zur Erforschung des menschlichen Lernens zu liefern als auch Vorteile lernender Wesen für technische Anwendungen zu nutzen. Je nach verwendeten Daten wird dabei von Supervised, Unsupervised oder Reinforcement Learning Ansätzen gesprochen. Ziel ist im Allgemeinen der maximale Informationsgewinn aus den Daten, um Aktionen mit der größtmöglichen Erfolgsrate durchzuführen. Das Supervised Learning ist vergleichbar mit der Schema-Theorie mit externem Feedback. Dabei werden ausgeführte Bewegungen beziehungsweise Aktionen direkt mit Feedback verknüpft und in den Lernprozess eingebunden. Wird hingegen kein Feedback bereitgestellt, handelt es sich um Unsupervised Learning, bei dem der Algorithmus die passende Repräsentation intrinsisch und selbstständig lernen muss.

Das Reinforcement Learning unterscheidet sich von den anderen beiden Modellen. Dabei wird durch Interaktion mit der Umwelt ein quantitatives Feedback über die Ausführungsqualität erreicht. Dieses Feedback kann auch erst verspätet nach mehreren Aktionen zur Verfügung stehen. Dieser Ansatz kann mit der Schema-Theorie ohne externes Feedback in Verbindung gesetzt werden. Allein durch intrinsische Bewertung der Erfahrungen muss das Schema angepasst werden.


Vorschläge für weiterführende Wikis

Motorisches Lernen wirft facettenreiche Fragen auf. Hier konnte nur ein Überblick über einen kleinen Teil der Forschung gegeben werden. Um das motorische Lernen beim Menschen weiter zu vertiefen, bieten sich folgende Themen an:

  • Genauere Betrachtung der verschiedenen Modelle des motorischen Lernens
  • Motorisches Lernen auf kognitiver Ebene
  • Rolle von intrinsischem und extrinsischem Feedback

Im Bereich des maschinellen Lernens lässt sich durch folgende Themen an dieses Wiki anschließen:

  • Lernen von Bewegungsprimitiven
  • Inverses Reinforcement Learning
  • Transfer Learning und Semi-Supervised Learning

Darüber hinaus kann der Vergleich zwischen menschlichem und maschinellem Lernen weiter vertieft werden.

verfasst von R. Hartmann

4.2 Eigener Standpunkt

Maschinelles Lernen erreicht Jahr für Jahr neue Meilensteine. Es stellt sich die Frage, ob in Zukunft auch Roboter-Sport, bei dem Roboter untereinander oder gemeinsam mit Menschen in Wettkämpfen antreten, Realität werden könnte. Das folgende Video zeigt, wie ein Roboter im Basketball auftreten könnte.

Auch an der TU Darmstadt sind Hochschulgruppen und Fachgebiete in diesen Bereichen unterwegs. Beispielsweise entwickelt das DART Racing Team autonome Rennwagen, während das Sailing Team Darmstadt an unbemannten Segelbooten arbeitet.

Um Roboter voll in die Welt des Sports zu integrieren, sind jedoch noch einige Meilensteine zu erreichen. Roboter können bislang noch leicht in der Bewegung gestört werden und sind oft auf nur wenige Bewegungen innerhalb gut vorhersehbarer Szenarien spezialisiert. Um maschinelles Lernen auf einen Forschungsstand zu bringen, welcher menschenähnliche, dynamische und präzise motorische Fähigkeiten für Roboter zur Verfügung stellt, ist außerdem ein tiefes Verständnis des menschlichen Lernens unabdingbar.

Es ist hervorzuheben, dass das Feld des maschinellen Lernens auch Chancen für die Forschung am Menschen hat. So orientiert sich nicht nur die Robotik am Menschen, sondern Forschungsbereiche wie die Kognitionswissenschaft werden von Modellen des maschinellen Lernens inspiriert. Für das Verständnis des menschlichen motorischen Lernens wie auch für die Verwendung dieses Wissens für maschinelle Aspekte ist die Zusammenarbeit zwischen Forschung am Menschen und in der Robotik und KI demnach vielversprechend.

Zum Schluss sei noch ein problematischer Punkt erwähnt. Menschliche motorische Leistungsfähigkeit ist ohne technische Unterstützung langfristig begrenzt (ATSB1801 Grenzen menschlicher Leistungsfähigkeit). In der Technik hingegen sind, abgesehen von physikalischen Limitierungen, theoretisch nur wenige Grenzen gesetzt. Folglich ist es vorstellbar, dass maschinelle Methoden die menschlichen Leistungsgrenzen eines Tages überschreiten werden. Die resultierenden Konsequenzen für den Mensch und die Gesellschaft sind schwer abschätzbar und auch in der Wissenschaft stark diskutiert.
Ob Roboter im Sport nur dem Forschungsinteresse dienen oder auch als Freizeitunterhaltung gesehen werden, muss letztendlich jeder selbst entscheiden.

verfasst von J. Albers, R. Hartmann und S. Kohaut

Fragen

  1. Warum ist es beim Bewegungslernen eine Herausforderung, dass der Körper über zahlreiche Gelenke verfügt? Die zahlreichen Gelenke erhöhen die Anzahl an Freiheitsgraden und somit an Möglichkeiten, Bewegungen auszuführen. Für jede Bewegung gibt es unendlich viele denkbare Kombinationen an Gelenkwinkeln und kontrahierten Muskeln (Stichwort: degrees of freedom problem). Um diese Schwierigkeit zu lösen, bedarf es der „Berechnung“ einer Vorwärtskinematik aus der gewünschten Bewegung. Diese kann im Hinblick auf verschiedene Faktoren wie Geschwindigkeit, Genauigkeit und Kraft hin optimieren. Das Herausfinden der besten kinematischen Komposition für eine gegebene Problemstellung und die optimale Anwendung sind der Kern des Bewegungslernens.
  2. Wie lassen sich Vorteile des variablen Übens mithilfe der Schema-Theorie begründen? Die Schema-Theorie handelt von der Relation zwischen den gegebenen Situationsbedingungen und den notwendigen Parametern des GMPs für ein erfolgreiche Bewegungsausführung. Diese Relation kann als Funktion dargestellt werden. Je größer die Variation der Trainingsbedingungen, umso größer wird der Streuungsbereich dieser Funktion. Dadurch kann diese die Relation für verschiedene Gegebenheiten besser abbilden, sodass auch bei unbekannten Bedingungen die Parameterauswahl passend getroffen werden kann.
  3. Ein Hersteller von aktiven Prothesen hat im Labor Nutzerdaten aufgenommen, um aus diesen etwas über das Verhalten von Menschen zu erlernen. Was ist das Problem bei der Anwendung des gelernten Modells beim Endanwender? Da das Verhalten der Endanwender potentiell von dem der Versuchspersonen abweicht, muss das Gelernte auf die neue Situation transferiert werden. Dazu können wir z.B. bei Gebrauch neue Daten aufnehmen, wobei diese allerdings nicht unbedingt Label besitzen werden.

Literaturverzeichnis

Birklbauer, J. (2006). Modelle der Motorik - Eine vergleichende Analyse moderner Kontroll-, Steuerungs- und Lernkonzepte (Bd. 5). Meyer & Meyer Verlag.

Bloice, M. D., Stocker, C., & Holzinger, A. (2017). Augmentor: an image augmentation library for machine learning. arXiv preprint arXiv:1708.04680, 1-5.

Das Gehirn. (o. J.). Max-Planck-Gesellschaft. Abgerufen 19. Januar 2022, von https://www.mpg.de/gehirn

Haken, H., Plath, P. J., Ebeling, W., Romanovsky, Y. M. (2016). Beiträge zur Geschichte der Synergetik. Springer Spektrum.

Hall, K. G., & Magill, R. A. (1995). Variability of Practice and Contextual Interference in Motor Skill Learning. Journal of Motor Behavior, 27(4), 299–309. https://doi.org/10.1080/00222895.1995.9941719

Hare, J. S., Lewis, P. H., Enser, P. G., & Sandom, C. J. (2006). Mind the Gap: Another look at the problem of the semantic gap in image retrieval. In Multimedia Content Analysis, Management, and Retrieval 2006 (Vol. 6073, S. 75-86). SPIE.

Harris, C. M., & Wolpert, D. M. (1998). Signal-dependent noise determines motor planning. Nature, 394(6695), 780–784. https://doi.org/10.1038/29528

Kapfhammer, J. P. (2000). Plastizität im Nervensystem. Spektrum. https://www.spektrum.de/lexikon/neurowissenschaft/plastizitaet-im-nervensystem/9979

Keele, S. W., & Summers, J. J. (1976). The Structure of motor programs. In Motor control: Issues and trends (S. 109–142). Academic Press.

Kugler, P. N., Kelso, J. S., & Turvey, M. T. (1982). On the control and coordination of naturally developing systems. In J. A. S. Kelso, & J. E. Clark (Hrsg.), The Development of Movement Control and Coordination (S. 5-78). John Wiley & Sons.

Liu, P., Tateo D., Bou-Ammar, H., & Peters, J. (2021). Efficient and Reactive Planning for High Speed Robot Air Hockey. In 2021 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) (S. 586-593). IEEE.

Loosch, E. (1999). Allgemeine Bewegungslehre. Limpert.

Neiman, T., & Loewenstein, Y. (2011). Reinforcement learning in professional basketball players. Nature communications, 2(1), 1-8.

Newell, K. M., van Emmerik, R. E. A., & McDonald, P. V. (1989). Biomechanical constraints and action theory. Human Movement Science, 8(4), 403–409.

Reif, K. (Hrsg.). (2016). Sensoren in Kraftfahrzeugen (3. Aufl.). Springer Vieweg.

Rosenbaum, D. A. (2010). Human motor control (2. Aufl.). Elsevier Inc.

Schmidt, R. A. (1975). A schema theory of discrete motor skill learning. Psychological Review, 82(4), 225-260. https://doi.org/10.1037/h0076770

Schmidt, R. A. (2019). Motor Control and Learning: A behavioral Emphasis (6. Aufl.). Human Kinetics.

Schöllhorn, W. (1999). Individualität: Ein vernachlässigter Parameter? Leistungssport, 29(2), 5-12.

Schöllhorn, W., Beckmann, H., Janssen, D., & Michelbrink, M. (2009). DIfferenzielles Lehren und Lernen im Sport. sportunterricht, 58(2), 36-40.

Schöllhorn, W., Eekhoff, A., & Hegen, P. (2015). Systemdynamik und differenzielles Lernen. Sportwissenschaft, 45(3), 127-137.

Schott, N., Rudisch, J., & Voelcker-Rehage, C. (2019). Meilensteine der motorischen Verhaltensforschung. Zeitschrift für Sportpsychologie, 26(2), 81-111. https://doi.org/10.1026/1612-5010/a000259

Schraml, D. (2019). Physically based synthetic image generation for machine learning: a review of pertinent literature. In Photonics and Education in Measurement Science 2019 (Vol. 11144, S. 111440J). International Society for Optics and Photonics.

Terjung, R. (Hrsg.). (2011). Comprehensive Physiology (1. Aufl.). Wiley. https://doi.org/10.1002/cphy

Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433–460.

Warren, W. H. (1984). Perceiving affordances: visual guidance of stair climbing. Journal of experimental psychology: Human perception and performance, 10(5), 683-703.

Winstein, C. J., & Schmidt, R. A. (1990). Reduced frequency of knowledge of results enhances motor skill learning. Journal of Experimental Psychology: Learning, Memory, and Cognition, 16(4), 677-691.

Wulf, G. (1995). Lernen von generalisieren motorischen Programmen und Bewegungsparametern. In Interdisziplinäre Bewegungsforschung (S. 498-537). Pabst Science Publishers.

Bildnachweise

Abbildung Rechte Name Student:innen
Modul Icon A S. Kohaut
Abb. 1 A J. Albers
Abb. 2 A J. Albers
Abb. 3 A (nach Vorlage in (Loosch, 1999)) R. Hartmann
Abb. 4 A (nach Vorlage in (Schmidt, 1975)) R. Hartmann
Abb. 5 A R. Hartmann
Abb. 6 A R. Hartmann
Abb. 7 A (nach Vorlage in (Loosch, 1999)) R. Hartmann
Abb. 8 A R. Hartmann
Abb. 9 A S. Kohaut
Abb. 10 A S. Kohaut
Pendel im Training A S. Kohaut
Pendel nach Training A S. Kohaut

A = Eigenes Bild; B= Recht, die Abbildung im Wiki öffentlich nutzen zu dürfen; C = Freie Nutzung

Anhang

Der folgende, ZIP komprimierte Ordner beinhaltet den Python Code zum Nachvollziehen der supervised und unsupervised Beispiele.

reference_code.zip

biomechanik/projekte/ws2122/wp2126.txt · Zuletzt geändert: 28.11.2022 00:58 von 127.0.0.1


Warning: Undefined variable $orig_id in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/openas/action.php on line 232