Benutzer-Werkzeuge

Webseiten-Werkzeuge


fm:quant_fometh:ws14:qfm1421

Gruppe QFM1421

Veranstaltung Seminar Quantitative Forschungsmethoden
Autoren Licinia Greber, Alex Watolla
Bearbeitungsdauer ca. 10 min
Letzte Bearbeitung 27.10.2014
Status in Bearbeitung

indexmenu_n_21

Reflexionen zu AFM1_Forschungsfrage

Letzte Änderung: 02.11.2014

Student Frage Antwort Selbstreflexion
Licinia Greber Welche Messverfahren scheinen sinnvoll, wenn wir die Vor- und Nachteile eines Sprinters mit einer Prothese mit einem Sprinter mit zwei Prothesen vergleichen wollen? Um zu überprüfen, welcher der beiden unterschiedlich gehandicapten Sportler einen größeren Vor- bzw. Nachteil hat dienen die folgenden Messmethoden. Mittels der Kinemetrie können wir Segment- und Gelenkwinkel ermitteln. Mit der Anthropometrie können wir die Geometrische Verteilung der Masse ermitteln, sowie die Lage des Körperschwerpunkts und die Lage der Gelenkachsen. Die Dynamometrie lässt uns Kräfte an z.B. Extremitäten direkt bestimmen und mit der Elektromyographie können wir Muskelaktivität registrieren und aufzeichnen. Den metabolischen Energieumsatz, sowie den Sauerstoffumsatz ermittln wir durch die Spiroergometrie. Überblick über die gängigen Messverfahren der Biomechanik anhand einer komplizierteren Fragestellung
Licinia Greber Ist es gerecht, dass bei den Paralympics Sprinter mit einer Prothese und einem gesunden Bein gegen Sprinter mit zwei Prothesen antreten? Generell ist es so, dass bei den Paralympics Sportler mit unterschiedlichen Handicaps gegeneinander antreten. So kommt es vor, dass beim 100m Sprint Sportler mit einer Prothese gegen Sportler mit zwei Prothesen antreten. So ist es durchaus möglich, dass ein Sportler mehr Vorteile hat als ein anderer. Die Vor- und Nachteile dieser unterschiedlich gehandicapter Personen sollten anhand der gängigen Messverfahren ermittelt werden. Erst dann kann die Frage auf Gerechtigkeit beantwortet werden. Diese Frage wirft eine Debatte über die Chancengleichheit bei den Paralympics im Allgemeinen auf. Keine genaue Antwort auf die Frage, da die Vor- und Nachteile der zwei unterschiedlich gehandicapter Personen nicht auf der Hand liegen.
Alex Watolla Welche Messmethoden im Bereich der biomechanischen Messanayse gibt es und was messen sie genau? 1) Die Kinemetrie misst Segment- und Gelenkwinkel sowie die Lage des Körperschwerpunktes. 2) Die Dynamometrie analysiert die Kräfte, die im und auf den Körper bei einer bestimmten sportlichen Bewegung wirken. 3) Die Elektromyographie misst die Aktivierungsdynamik der betroffenen Muskulatur. 4) Die Anthropmetrie besitzt die Körpermaße des Sportlers, wie die Segmentlängen und die Massenverteilung, als Gegenstand der Messung. 5) Die Spirometrie befasst sich mir der Messung metaboler Energieumsätze sowie dem Suaerstoffumsatz.gute kurze Wiederholung und Gewinnung eines kurzen Überblicks über die Messverfahren
Alex Watolla Ist die Nichtnominierung von Markus Rehm zur EM in Zürich ein Rückschritt im Bereich Inklusion im Sport? Die Inklusion im Bereich Sport, aber vor allem im Bereich Leistungs- und Spitzensport ist gerade in der Entwicklung und in der Phase der Erfahrungsgewinnung. Es gibt immer besondere Ausnahmefälle im Sport, die man nicht nach einem bestimmten Schema beurteilen kann. Im Fall von Markus Rehm bringt die Beinprothese Vor-, aber auch Nachteile mit sich. Vorteile sind z.B. die anders auftretenden Bodenreaktionskräfte, die beim Weitsprung und Sprint eine entscheidende Rolle spielen. Aber auch die anderen kinematischen Reaktionen und Vorrausetzung können ein Vorteil im Wettkampf sein. Außerdem ermüdet der Muskel des Athletens nicht, da er durch ein technisches Element ersetzt wurde. Doch auf der anderen Seite stehen auch die Nachteile, die nicht zu verachten sind. Ein natürliches Gelenk kann sich immer besser und schneller an situative Gegebenheiten anpassen und darauf reagieren (wie z.B. Bodenunebeneheiten). Auch sind natürliche Gelenke viel beweglicher, die Motorik sowie Sensorik ist erheblich besser ausgebildet und nutzbar. Mit einer Prothese zu laufen und zu leben ist jedoch nicht einfach. Neben psychischen Aspekten sind auch die körperlichen Aspekte zu beachten. Es erfordert ein großes Maß an Können und Gleichgewichtsgefühl mit einer Prothese zu laufen, geschweigedenn Leistungssport zu betreiben, was ein ernormer Maß an Disziplin, Training und Arbeit einfordert. Ich würde sagen, dass die Nichtnominierung von Markus Rehm eventuell ein kleiner Rückschritt in Bezug auf die Inklusion im Sport darstellt, aber vielmehr müsste der Fall als eine Art Motivation gesehen werden, sich mehr mit dem Thema auseinanderzusetzen, um behinderten Sportlern neue Möglichkeiten zu eröffnen und ihnen damit die Chance auch mit Prothesen an Wettkämpfen teilzunehmen. Eventuell müsste die Technologie des Prothesenbaus sich darauf konzentrieren, Prothesen so zu entwickeln, dass sie annähernd ähnliche Bedingungen geben wie ein natürliches Gelenk und die Vor- sowie Nachteile im Vergleich zu natürlichen Gelenken zu minimieren; wobei die Technikentwicklung hier ja auch noch in den „Kinderschuhen“ steckt. Im Bereich der Inklusion sollte vor allem auch der Respekt gegenüber behinderten Sportlern und ihren erbrachten Leistungen im Mittelpunkt stehen und diese auch anerkannt werden. Wenn man z.B. Skirennläufer mit Prothesen die Piste herunter schießen sieht, ist das meines Erachtens noch eine viel größere Leistung. Denn trotz „Handicap“ erbringen sie Spitzenleistungen. Und genau das verdient den höchsten Respekt. Deswegen ist meiner Meinung nach dringend zu klären, wie genau Prothesen auszusehen haben (Welche Eigenschaften, welche Form usw.) damit sie den Wettbewerb nicht verzerren und allen Athleten gleiche Chancen bieten, sodass behinderte und nicht-behindert Sportler gemeinsam wetteifern dürfen, diese Leistung anerkannt wird und es ein fairen Wettkampf für beide Seiten ist. gute Wiederholung der Vor- und Nachteile von Prothesen in Bezug auf aktuelle Situationen und Probleme, die in der Praxis auftauchen

Hinweise: Die Fragen für NN1 wurden von NN2 gestellt. Die Fragen für NN2 wurden von NN1 gestellt. Die beiden Antworten pro Student müssen in 5min gelesen werden können.

Reflexionen zu AFM2_Hypothesen

Letzte Änderung: 09.11.2014

Student Frage Antwort Selbstreflexion
Licinia Greber Wieso ist es in der Forschung so wichtig Hypothesen zu formulieren? Dem Erstellen einer Forschungsfrage gehen Beobachtungen und bereits bestehende Zusammenhänge voraus. Da eben diese Zusammenhänge noch nicht aufgeklärt sind, ist die Bildung einer Theorie notwendig. Die erwarteten Zusammenhänge, die sog. Hypothesen werden dann in der experimentellen Untersuchung überprüft und entweder belegt oder widerlegt. Deswegen ist bei der Formulierung einer Hypothese zwingend darauf zu achten, dass diese tatsächlich überprüft und widerlegt werden kann. eindeutige Antwort auf die gestellte Frage. Kompakt und vollständig.
Licinia Greber Formuliere zwei geeignete Forschungshypothese im Fall von Oskar Pistorius, um zu untersuchen, ob er mit Sprintprothesen einen Vorteil gegenüber nicht amputierten Sportlern hat. Eine geeignete Hypothese, um zu überprüfen, ob Oskar Pistorius nicht amputierten Sportlern einen Vorteil gegenüber hat, wäre wie folgt: H0: Die metabolischen Anforderungen sind für einen Sportler mit Prothesen geringer als bei einem Sportler ohne Prothesen. Die entsprechende H1 Hypothese wäre: Die metabolischen Anforderungen sind für einen Sportler mit Prothesen nicht geringer als bei einem Sportler ohne Prothesen. Eine geeignete andere Hypothese könnte wie folgt lauten: H0: Die elastische Carbonfeder im künstlichen Gelenk gibt mehr Energie zurück als ein natürliches Gelenk. Und die entsprechende H1 Hypothese wäre: Die elastische Carbonfeder im künstlichen Gelenk gibt weniger Energie zurück als ein natürliches Gelenk Meiner Meinung nach zwei Hypothesen, die den Anforderungen entsprechen. Die Hypothesen sind klar, eindeutig und logisch formuliert. Desweiteren wird der Bezug zu definierten Begriffen hergestellt und die Hypothesen wären in einem Forschhungsprozess realisierbar.
Alexandra Watolla Welche Eigenschaften sollten bei der Formulierung von Hypothesen berücksichtigt werden? Bei der Formulierung einer bestimmte Hypothese, um eine Forschungsfrage zu beantworten zu können bzw. eine Lösung für ein aktuelles Problem zu finden, muss darauf geachtet werden, dass die Hypothese eindeutig, klar, aussagekräftig und in sich logisch formuliert ist. Die Hypothese sollte durch logische Zusammenhänge und bestimmte Einsichten begründet sein. Da wir uns im Moment im Bereich der quantitativen Forschungsmethoden befinden, sollten die zu untersuchenden Begriffe auf messbare Variablen übertragen werden können, um ein Ergebnis berechnen zu können. Die Hypothese sollte so formuliert sein, dass die zu untersuchende Aussage realistisch innerhalb des Versuchsaufbaus überprüft werden kann. Des Weiteren sollte eine Hypothese immer so gewählt werden, dass sie bestätigt und auch widerlegt werden kann, denn nur eine widerlegte Hypothese lässt die zu prüfende Theorie scheitern, wohingegen die sichere Annahme der Theorie eine Vielzahl an bestätigten Hypothesen benötigt. Schließlich muss die Art des Zusammenhanges bzw. Ursache und Wirkung zwischen den Messgrößen klar erläutert sein. gute Wiederholung des Gelernten, schafft einen guten Überblich über einen Hauptaspekt des Wiki-Moduls, durch Beschreibung in eigenen Worten und im Fließtext, kann sich der Stoff gut festigen.
Alexandra Watolla Entwickle 2 Beispielhypothesen: Beschreibe jeweils die Ursache und Wirkung bzw. die unabhängige und die abhängige Variable genauer. 1. Beispielhypothese: Die Mittelwerte des Technikindexes beim Kurzschwung im alpinen Skisport der beiden Gruppen (monotone und variable Gruppe) unterscheiden sich signifikant untereinander. Unabhängige Variabel bzw. Ursache ist in diesem Fall das Training bzw. Treatment der beiden unterschiedlichen Gruppen (monotone und variable Gruppe). Abhängige Variable (Wirkung) ist der Mittelwert des ermittelten Technikindex, also die sportliche Leistung beim Kurzschwung im alpinen Skisport. 2. Beispielhypothese: Life-Kinetik-Training im alpinen Skisport verbessert die Koordinationleistungen der Slalomfahrer im Rennen erheblich. Unabhängige Variable (Ursache) ist das Life-Kinetik-Training (Trainingsart, Trainingsprogramm). Abhängige Variable (Wirkung) ist die Koordinationsleistung der Skifahrer im Wettkampf.Aufgabe bietet die Möglichkeit zur Praxisanwendung und ist eine gute Übung bzw. Vorbereitung für das Seminar, Lernen durch praktische Anwendung und Beispiele - sehr gute Methode, denn nur dann merkt man, ob man alles verstanden hat oder noch Fragen bzw. Lücken hat, um diese zu erkennen und zu schließen.

Reflexionen zu GM3_Integration in MATLAB

Letzte Änderung: 09.11.2014

Student Frage Antwort Selbstreflexion
Licinia Greber Beschreibe die beiden Arten von Bewegungsmodellen kurz. Wir unterscheiden zwischen der inversen Modellierung und der vorwärtsdynamischen Modellierung. Bei der inversen Modellierung wird aus der Beobachtung auf die Ursache der Bewegung geschlossen. Die Bewegung wird kinematisch und dynamisch erfasst, wobei die extern wirkenden Kräfte auf den Körper sowie die Segmentbewegungen gemessen werden. Anhand dieser Daten können nun die im Körper wirkenden Kräfte, also die internen Kräfte, und Drehmomente gemessen werden. Anders läuft es bei der vorwärtsdynamischen Modellierung ab. Hier benötigt man Annahmen über die auf den Körper wirkenden Kräfte, woraus dann die Bewegungskinematik berechnet wird. Über Muskelmodelle werden Gelenkmodelle berechnet, aus denen dann die Bewegung der Segmentkette bei gegebenen Anfangsbedingungen berechnet wird. Das Ausformulieren der Skizze im Wikimodul lässt einen die Zusammenhänge gut erkennen.
Licinia Greber Fällt Dir ein Beispiel (eine andere sportliche Bewegung) ein, in der man ähnliche Messungen durchführen könnte? Beim Skisprung könnte eine ähnliche Messung durchgeführt werden. Wenn sich die drei Parameter, nämlich der zeitliche Verlauf der Höhe, die vertikale Geschwindigkeit und die vertikale Beschleunigung des Körperschwerpunktes (KSP) im optimalen Bereich befinden, wird der Skispringer wohl seine optimalste Leistung erbringen können. Die Bodenreaktionskräfte beim Absprung oder die Verlagerung des KSP beim Absprung wären denkbare Messgegenstände. Anhand der Messung der einzelnen Parameter kann festgestellt werden, wo der Skispringer Handlungsbedarf hat und wo er sich verbessern muss, um seine Bestleistung zu erzielen. Guter Transfer der Numerischen Intergration in einen etwas anderen Bereich. Sich andere Beispiel zu überlegen, zwingt einen dazu sich genauer mit der Materie auseinander zu setzen. Der Lerneffekt ist damit größer.
Alex Watolla Nenne die 4 Newton'sche Gesetze. Gehe dabei auf das zweite Newton'sche Axiom genauer ein. Die 4 Newton´schen Axiome lauten wie folgt: 1. Trägheitsgesetz, 2. Grundgesetz der Dynamik, 3. Wechselwirkungsgesetz, 4. Superpositionsgesetz. Das zweite Newton´sche Gesetz beschreibt die Zusammenhänge zwischen den drei kinematischen Größen Beschleunigung a, Geschwindigkeit v und Weg s, und wie genaus diese voneinander abhängen. Die Kräfte F und auch Drehmomente sind demnach die Ursachen von Beschleunigungen. Dies lässt sich durch folgende Formel beschreiben: F = m*a. Denn wenn ein Körper mit einer konstanten Kraft angegriffen wird, beschleunigt sich der Körper gleichmäßig. Die Beschleunigung a und die Kraft F sind zueinander proportional. Die Kraft wird hierbei durch die Einheit Newton (N) beschrieben, die Masse wird in kg angegeben. gute Wiederholung und durch die genauere Beschreibung eine gute und einprägsame Methode
Alex Watolla Nenne je ein Beispiel aus dem Sport für ein inverses Bewegungsmodell und ein vorwärtsdynamisches Modell. Inverses Modell: Ein Beispiel für das inverse Modell können z.B. Fehlhaltungen bzw. Fehlstellungen und Asymmetrien des Körpers sein, wie eine schiefe Stellung der Füße, Hüfte oder der Schultern, was Fehlbelasungen und muskuläre Dysbalancen hervorrufen könnten. Vorwärtsdynamische Modellierung: Ein Beispiel für die vorwärtsdynamische Modellierung könnte die Messung der Kräfte durch entsprechende Messinstrumente sein, die während einem Abfahrtslauf im alpinen Skirennsport auf den Körper einwirken, und daraus dann die Bewegungskinematik berechnet wird. gute Anwendungsbeispiel, durch selbstüberlegte Beispiele lernt man am besten, setzt sich mit dem Thema auseinander und behält Informationen besser, da sie besser und klarer verstanden werden.

Hinweise: Die Fragen für NN1 wurden von NN2 gestellt. Die Fragen für NN2 wurden von NN1 gestellt. Die beiden Antworten pro Student müssen in 5min gelesen werden können.

Reflexionen zu AFM3_Forschungsablauf

Letzte Änderung: 20.11.2014

Student Frage Antwort Selbstreflexion
Licinia Forschung kann grundlagenorientiert sein und anwendungsorientiert. Beschreibe beide Ansätze kurz und geb ein kleines Beispiel an. Die grundlagenorientierte Forschung (bottom-up) wird auch als Pionierforschung bezeichnet. Es wird neues Wissen generiert, weswegen man auch von Erkenntnisforschung spricht. Häufig findet sie in Basiswissenschaften wie Chemie, Physik oder Mathematik statt und hat kein bzw. kaum ökonomischen Hintergrund. Der Fokus ist auf die Methodik und Logik der Forschung gerichtet und Ziel ist es möglichst allgemeingültiges Wissen zu produzieren und zu vermehren. Durch die Grundlagenforschung soll sich das Weltverständnis ändern und es sollen sich signifikante gesellschaftliche und wissenschaftliche Vorteile ergeben. Ein Beispiel für eine grundlagenorientierte Forschung wäre die Untersuchung von biomechanischen Markern zur Diagnostik im Spitzensport. Die Anwendungsorientierte Forschung (top down) greift auf die Grundlagenforschung zurück. Diese Forschungsweise ist lösungsorientiert, denn es wird die Lösung für ein definiertes Ziel gesucht. Im Vordergrund steht die Anwendbarkeit auf einen aktuellen Fall. Die Fragestellungen leiten sich aus den Erfordernissen der Praxis her und meistens liegt ein ökonomischer Hintergrund vor. Ein Beispiel hierfür wären die Einsatzmöglichkeiten für Krafttraining im Gesundheitssport zu untersuchen. Gute Frage, da es sich um Grundlagenwissen bzw. Allgemeinwissen handelt, dass man zwingend wissen muss. Die Frage hat dazu angeregt außerhalb des Wikimoduls zu recherchieren. Sehr intensive Auseinandersetzung mit dieser Thematik. Interessant ist zudem, dass die Frage alle Wissenschaftlichen Bereiche wie Medizin, Physik und Chemie betrifft.
Licinia Was könnten Störgrößen in einem Forschungsablauf sein? Störgrößen stellen ein Problem bei wissenschaftlichen Untersuchungen dar. Umweltbedingungen können eine Untersuchung stören. Es muss darauf geachtet werden, wie stark die Leistung des Sportlers mit wechselnden Umwelteinflüssen variiert. Ist die Rennbahn zum Beispiel bei einem 100m Sprint nass oder herrscht starker Gegenwind? Auch die Messapparaturen selber sind sehr empfindlich und benötigen sehr definierte Umweltbedingungen. Temperatur, Feuchtigkeit und Lichteinstrahlung (Videoanalyse mit Gegenlicht) können die Messungen verzerren, weswegen Messungen im Freien schwierig sind. Auch die emotionale Erregung des Sportlers wie Aufregung vor dem Start und körperliche Ermüdung des Sportlers können die Untersuchung stören. Der Ausweg wäre eine theoretische Modellierung des zu untersuchenden Sachverhalts. Die Variablen müssen absolut konstant gehalten werden, wodurch die Auswirkung auf die Zielvariable direkt ersichtlich ist. In diesem Fall hat es sehr viel gebracht die Antwort in einem Fließtext zu schreiben, da man sich so die Kernelemente am besten einprägt. Was Störgrößen sind werde ich wohl so schnell nicht vergessen.
Alex Skizziere bzw. Beschreibe den Ablauf eines Forschungsprojekts in stichpunktartigen Sätzen. Die Schritte zur Durchführung einer quantitativen Forschung und eines Forschungsprojektes in der Sportwissenschaft sind Folgende: 1) Bedarf und Interesse am Forschungsprojekt muss geklärt werden (grundlagenorientiert oder anwendungsorientiert). 2) Ansätze zur Beschreibung und Analyse z.B, einer Bewegung müssen aufgestellt werden (Modelle und Messungen müssen entwickelt werden). 3) Nun wird eine Forschungsfrage formuliert und eine passende Hypothese dazu aufgestellt sowie das Studiendesign beschrieben und der Vorgang organisiert. 4) Dann kommen wir zur Versuchsdruchführung und Datenerhebung durch verschiedene Beobachtungs- und Befragungsmethoden oder auch bestimmte Tests (u.a. motorische Tests), um hierbei erfolgreich zu sein, benötigt man unbedingt ein gut definierte Stichprobe und eine Prüfung der Fehlerquellen und Störgrößen vorab. 5) Datenauswertung mit speziellen Computerprogrammen und Transformationen der Daten, um sie analysieren zu können. 6) Interpretation und Präsentation der Daten, um den Foschungszyklus abzuschließen, die Ergebnisse zu reflektieren, Grenzen und Defizite des Forschungsprojektes aufzuzeigen, mit anderen Studien zu vergleichen um den wichtigen Beitrag der Forschungsergebnisse zu unterstreichen, alles zusammen gibt wichtige Impulse für die weitere Forschung und neue Forschungsprojekte. Gute Wiederholung, kurz und knackig den Forschungsablauf wiedergeben und verinnerlichen. Dabei hat man sich selbst nochmal einen guten Überblick verschafft. Gute Vorbereitung auf den Test.
Alex Was sind mögliche Fehlerquellen bei der Untersuchung der Absprungdynamik im Weitsprung und wie könnte man diese ausschalten? In der Untersuchung der Absprungdynamik im Weitspung könnten Fehlerquellen z.B. sein: 1) Die Messapparaturen, mit denen bestimmte Kräfte im Absprung gemessen werden, benötigen oft definierte und auch konstante Umgebungsbedingungen (Temperatur, Lichteinstrahlung, Feuchtigkeit). Nicht alle Einflüsse können in einer Feldstudie, die draußen stattfindet, konstant gehalten oder kontrolliert werden (bei Regen würde eine Messung im Weitsprung wahrscheinlich anders ausfallen als bei trockenem Wetter und Sonnenschein, auch Wind ist ein Faktor). 2) Aber auch Lern- und Motivationseffekte können eine Fehlerquelle darstellen, die den Athleten dazu veranlassen die Weitsprungbewegung anders auszuführen als üblich. 3) Die Absprungdynamik setzt sich aus dem Anlauf und der Anlaufgeschwindigkeit, dem Aufsatz auf dem Absprungbrett und und dem eigentlichen Absprung zusammen. Entscheidend dabei sind die letzten 4 Schritte vor dem Absprung. Auch in diesen Phasen können Fehlerquellen das Ergebnis stören (Bodenbeschaffenheit im Anlauf, körperliche Tagesform, Material, Wetter, Umgebungsbedingungen, Motivation des Athleten). Einige Fehlerquellen, nämlich diese die die Umgebungsbedingungen betreffen, könnte man Ausschalten, in dem man nicht im Feld arbeitet, sondern in einem Labor. Hier trifft man konstante und kontrollierbare Bedingungen an. Lern- und Motivationseffekte sowie das Problem der körperlichen Belastungs-und Tagesform könnte man ausschalten, indem man die Versuchspersonen ein Belastungsprofil z.B. mit einer Likert-Skala aufüllen lässt und somit das Belastungs- und Motivationsempfinden erfasst und in die Untersuchung und ihre Interpretation einfließen lassen kann. Eine Gegenmaßnahme wäre auch die Randomisierung der Versuchspersonen und eine Vielzahl an Probanden. Ich konnte mir nochmal klar machen, was genau Fehlerquellen sind, wo sie auftauchen können und wie man sie vermeiden kann. Gut nochmal darüber nachzudenken, so wird es einem klarer und man achtet mehr darauf Fehlerquellen zu vermeiden oder sie auch zu finden und dann herauszunehmen. Gute Frage für die Verinnerlichung und Anwendung am Beispiel.

Reflexionen zu FMB3_Beinfunktion

Letzte Änderung: 20.11.2014

Student Frage Antwort Selbstreflexion
Licinia Beschreibe den Begriff der Beinfunktion. Bei der Beinfunktion handelt es sich um eine vereinfachte Beschreibung der Körperdynamik während des Bodenkontaktes. Die mechanische Funktion der beteiligten biologischen Elemente wie Skelett, Muskeln, Sehnen und Bindegewebe werden dabei beschrieben. Sie werden in repräsentativen, vereinfachten Elementen zusammengefasst. Der Sinn besteht darin, dass zum Beispiel alle beteiligten Muskeln in einem virtuellen Muskelelement beschrieben werden. Das Konzept der Beinfunktion bringt auch gewisse Vorteile mit sich, nämlich ist die Beinachse einfacher messbar, die Beschreibung und Untersuchung ist auch einfacher und zwischen den Probanden kann man einfacher vergleichen. Genaue Beschreibung der Beinfunktion, sehr gute Vorbereitung auf den Fragebogen. Da es zu der Beinfunktion leider keine weiteren Quellen gab, konnte man leider nur den Text zum Beantworten der Frage zu Rate ziehen.
Licinia Welche Auswirkungen hätte die Bestätigung der Hypothese („Durch eine verminderte Beinsteifigkeit wird eine größere Sprunghöhe erreicht“) im Text auf den Sport und den Wettkampf? Falls die Hypothese tatsächlich belegt werden sollte, hieße es, dass Menschen mit einer verminderten Beinsteifigkeit, also Menschen mit Prothesen, eine größere Sprunghöhe erreichen würden. Das hieße, dass Menschen mit Prothesen im Vorteil wären im Vergleich zu Menschen mit zwei gesunden Beinen. Für den Sport, sowie für Wettkämpfe hieße das dann, dass Prothesenträger nicht gegen Menschen mit gesunden Beinen antreten dürften, da die Vorteile der Prothesenträger deutlich sind. Gute Frage, da man sich genau den Begriff der Beinsteifigkeit bewusst sein muss, um die verminderte Beinsteifigkeit zu deuten.
Alex Welche Vorteile hat das Konzept der Beinfunktion? Gibt es auch Nachteile? Wenn ja, welche? Das Konzept der Beinfunktion hat folgende Vorteile: 1) die Messbarkeit der Beinachse ist besser messbar, 2) Untersuchung und Beschreibung ist einfacher, 3) die Probanden können besser verglichen werden. Nachteile des Konzeptes der Beinfunktion könnten sein: 1) Fehlerquellen und Störgrößen könnten Ergebnisse verzerren, 2) nicht alle Sportarten haben anatomisch identische Abrspungbewegungen, kann eventuell nicht in jedem Fall angewendet werden, 3) die Umgebungsbedingungen und Materialien beeinflussen die Analyse und müssen immer miteinberechnt werden, hier wird ein Vergleich der Probanden wieder schwieriger. gute Methode für die Wiederholung des begriffes Beinfunktion und die Vorteile und um über die Nachteile kritisch nachzudenken.
Alex Nenne zwei andere Forschungsbereiche (z.B. andere Sportarten) bei denen es sinnvoll wäre das Konzept der Beinfunktion in den Forschungsablauf zu integrieren. Im Basketball wäre es sinnvoll das Konzept der Beinfunktion anzuwenden, da auch hier beim Wurf oder beim Korbleger die Beschreibung der Körperdynamik während des Bodenkontaktes untersucht werden könnte. Gleichzeitig wäre eine Untersuchung der Bewegung des Torwurfes im Handball eine interessante Anlauf- und Einsatzstelle für das Konzept der Benifunktion im Forschungsprozess. Beispiele sind immer gut, um den Stoff zu wiederholen, ihn zu verstehen und darauf aufbauen neue Situationen und Beispiele zu finden, vertieft und sichert das Gelernte.

Reflexionen zu AFM4_Literaturrecherche

Letzte Änderung: 13.11.2014

Student Frage Antwort Selbstreflexion
Licinia Wie würdest Du Dir ein Paper systematisch erschließen? Beschreibe die Phasen kurz. Da es sehr lange dauern kann eine komplette Forschungsarbeit zu lesen würde ich die Arbeit systematisch erschließen, um herauszufinden, ob die vorliegende Arbeit für mich von Interesse ist. Zu allererst würde ich das Abstract lesen, um zu schauen, ob die Forschungsfrage des Papers relevant ist und ob die Ergebnisse von Interesse sind. Als nächstes würde ich den letzten Abschnitt der Einleitung lesen, denn dort wird das Ziel der Arbeit begründet und definiert. Danach würde ich zu dem Ergebnisteil übergehen und anschließend zu der Diskussion, um herauszufinden, warum die Ergebnisse interessant sind. Zum Abschluss würde ich mir die Tabellen und Grafiken anschauen, denn dort erfährt man wie vorgegangen wurde und welche Zusammenhänge im Vordergrund stehen. Zwar eine einfache, aber eine wichtige Frage bzw. ist es wichtig die Antwort darauf zu wissen, um professionell zu recherchieren.
Licinia Sollte die Literaturrecherche in Zukunft nur noch online erfolgen oder sollte die Forschung eher wieder zurück in Bibliotheken? Natürlich ist es angenehm von zu Hause aus am PC nach Literatur zu suchen und diese online einzusehen. Auch ist es von Vorteil für die Wissenschaftler ihre Forschungsarbeiten in Online Journals zu veröffentlichen. Und mit großer Wahrscheinlichkeit wird der Trend mehr und mehr dazu übergehen. Das ist der technische Fortschritt und früher oder später wird wohl fast alles digitalisiert werden. Dennoch fände ich wichtig, dass Bibliotheken nicht in Vergessenheit geraten. Ich finde Forschungsarbeiten sollten sowohl online als auch in Papierform in Bibliotheken veröffentlicht werden. Zumal es auch viele ältere Leute gibt, die keinen PC haben und für diese Bevölkerungsgruppe wären die Forschungsarbeiten nicht einsehbar. Das fände ich nicht gut. Sehr gute Transferfrage, da dies durchaus ein Problem in Zukunft darstellen könnte. Außerdem kann man seine eigene Meinung einbringen.
Alex Welche Alternativen bieten sich Dir, wenn ein Paper nicht öffentlich zugänglich ist? 1) Über einen Unizugang kann man Artikel lesen, da diese frei zugänglich sind, wenn die Uni bereits ein Abo besitzt. 2) Über das ResearchGate, eine Art Facebook für Wissenschaftler. Auf dieser Plattform können Wissenschaftler sich anmelden und ihr Artikel veröffentlichen, welche schließlich frei zugänglich sind. 3) Auch könnte man die Autoren selbst direkt anschreiben und kontaktieren. Die Adressen findet man häufig im Artikel. 4) Eine weitere Möglichkeit bietet sich über den Bestellservice der Uni-Bibliothek an. Über einen bestimmten Forschungsbereich kann hier eine Kopie des Artikels gegen einen kleinen Beitrag bekommen. gute Wiederholung auf einen Blick
Alex Warum geht der Trend in Richtung Online Journal? Nenne Vor- und Nachteile. Würdest Du Deine wissenschaftliche Arbeit dort publizieren? Der Trend in der Forschung und im Bereich wissenschaftlicher Publikationen geht in Richtung Online-Journale, da das Internet und die Online-Publikationen das neue Zeitalter bilden. Immer mehr Daten werden heutzutage digitalisiert, um diese für möglichst viele Wissenschaftler möglichst schnell und ortsunabhängig zugänglich gemacht werden, sodass sich die Forschungsergebnisse so schnell es geht verbreiten können. Vorteil hierbei ist die einfache und schnelle Publikation sowie Erreichbarkeit des Artikels, sodass möglichst viele Leute diesen Artikel lesen können, wie schon erwähnt auch unabhängig vom Ort. Online-Publikationen stellen einen einfachen und schnellen Weg dar viele Menschen zu erreichen und die Artikel zu verbereiten. So werden Wissenschaftler wiederum zitiert und ihre Ergebnisse nehmen immer weitere Umfänge in Wissenschaftskreisen ein. Großer Nachteil bei dieser Art von Publikationen ist jedoch, dass die Anfangsinvestititionen ziemlich hoch sind, sich aber schnell wieder ausgleichen. Die finanziellen Beträge umfassen ca. 1.000 bis 3.000 € pro Artikel. Als Wissenschaftler würde ich meine Arbeit nur dann veröffentlichen, wenn die finanzielle Kalkulation sich rechnen würde. Passt die Kalkulation und würde das Anfangskapital kein Problem darstellen, würde ich meine Arbeit ebenso online veröffentlichen, denn schließlich muss man ja mit der Zeit gehen. Man kann sich gut über die Vor- und Nachteile klar werden und wiederholt noch einmal die Fakten über Online-Journale.

Reflexionen zu STAT1_Einführung Statistik

Letzte Änderung: 30.11.2014

Student Frage Antwort Selbstreflexion
Licinia Beschreibe den Begriff der „Grundgesamtheit“ genauer und geb ein kleines Beispiel an. Die Menge von allen Elementen bzw. aller Merkmalsträger wird als Grundgesamtheit bezeichnet. Ein Beispiel für eine Grundgesamtheit wären die Einwohner eines Landes. Da diese Menge oft zu groß ist, um jedes einzelne Element der Grundgesamtheit zu untersuchen, werden Stichproben zur Datenerhebung durchgeführt. Allerdings muss die Stichprobe repräsentativ sein, damit auch die Forschungsergebnisse repräsentativ sind. Die Maßnahme des Auswahlsatzes gewährleistet die Repräsentativität einer Stichprobe. Der Umfang der Stichprobe wird durch den Umfang der Grundgesamtheit geteilt, das Ergebnis wird mit 100 multipliziert. Beispiel: Wir wollen die Weitsprungfähigkeit aller TU-Sportstudenten untersuchen. Die Grundgesamtheit von x Sportstudenten ist zu groß, um jeden Sportstudent einzeln zu testen, weswegen wir eine Stichprobe von 100 Sportstudenten per Zufallsverfahren ziehen. Dadurch dass man die Antwort in einem Fließtext schreibt und sich selbst ein Beispiel überlegen soll, lernt man sehr gut und kann sich den Stoff gut einprägen.
Licinia Beschreibe die Stufen der Statistik anhand eines kleinen Beispiel (Was möchtest Du gerne untersuchen?) Im statistischen Analyseprozess gibt es insgesamt fünf Stufen. Stufe 1 ist die Planung, in welcher das Problem genau beschrieben wird und die Fragestellung formuliert wird. Die Fragestellung für unsere exemplarische Vorgehensweise soll heißen: Farbige Sprinter absolvieren 100m schneller als weiße Sprinter. Im zweiten Schritt geht es um die Frage der Datengewinnung. Es bestehen verschiedene Möglichkeiten der Datengewinnung, doch bei unserem Beispiel werden wir ein Experiment durchführen. Wir werden keine Vollerhebung durchführen, sondern eine Teilerhebung in Form von zwei Stichproben. Eine Stichprobe mit 50 farbigen und eine Stichprobe mit 50 weißen Sprintern. Die Sprintzeit der insgesamt 100 Sprinter wird gemessen. Sobald man die Daten erfasst hat, werden diese aufbereitet. Dafür bieten sich Tabellen, Schaubilder und Diagramme an. Im vierten Schritt werden die Daten analysiert und ausgewertet. Die deskriptive und die induktive Statistik stehen hier im Vordergrund. Im letzten Schritt werden die Ergebnisse interpretiert. Mithilfe der Inferenzstatistik wird von der Stichprobe auf die Grundgesamtheit geschlossen. Es bringt mehr die Frage anhand eines Beispiels zu erläutern, statt die Stufen der Statistik einfach nur runterzuschreiben. Deshalb sehr gute Frage.
Alex Was versteht man unter der Deskriptiven Statistik und der Induktiven Statistik? Die Statistik beschreibt 2 Arten von Methoden, nämlich die deskriptive Statistik und die induktive (schließende) Statistik (Inferenzstatistik). Die deskriptive Statistik arbeitet einerseits vor allem mit den Methoden zur Erfassung, Analyse und Bearbeitung von Daten. Die induktive Statistik beschreibt andererseits die Methoden zum Finden von rationalen Entscheidungen. Die induktive Statistik schließt also von einer Stichprobe auf die Grundgesamtheit. Die Forschungsergebnisse der Stichprobe lassen uns also auf die Grungesamtheit schließen, was eine wichtige Aufgabe dieser Statistikart darstellt. Die Aussagekraft der Untersuchung häng hierbei vor allem von der Represäntativität der Stichprobe ab. Da solche Untersuchungen auch immer Unsicherheiten mit sich bringen, müssen diese mit den Instrumenten der Wahrscheinlichkeitsrechnung kalkuliert und berechnet werden, um so eventuelle „Forschungsfehler“ auszugleichen und im Hinterkopf zu behalten. gute Wiederholung und Unterscheidung von beiden Statistikarten, guter kurzer Überblick in eigenen Worten
Alex Was sind Merkmale und welche Arten gibt es? Beantworte die Frage anhand einer selbstgewählten Forschungsfrage. Merkmalsträger sind Personen, Objekte oder Ereignisse, denen bestimmte Eigenschaften zugeschrieben werden und einer statistischen Untersuchung zugrunde liegen, diese Merkmalsträger werden auch statistische Variable genannt. Merkmalsträgern werden bestimmte Eigenschaften zugeordnet, worauf es immer auch auf das Untersuchungsziel ankommt. Diese Eigenschaften nennt man Merkmale. Merkmale kann man in 2 Arten unterscheiden: 1) Quantitative Merkmale 2) Qualitative Merkmale. Am Beispiel der folgenden Forschungsfrage kann man das dazu passende Merkmal näher erläutern. Forschungsfrage: Bewirkt monotones oder variables Lernen im alpinen Skisport einen bessere Leistung. Das Merkmal Skitechnik wird hier anhand von Videoanalysen und Beobachtungsbögen analysiert. Bei dem Merkmal Skitechnik handelt es sich um ein qualitatives Merkmal. gute Anwendungsaufgabe, am besten lernt man durch Anwenden und eigenen Beispielen.

Reflexionen zu AFM8_Wissenschaftliches Dokumentieren

Letzte Änderung: 30.11.2014

Student Frage Antwort Selbstreflexion
Licinia Beschreibe die Struktur eines Zeitschriftenartikels und erkläre die Schritte ganz kurz. Die Struktur eines Zeitschriftenartikels muss internationalem Standard entsprechen, damit der Artikel international veröffentlich werden kann. Erster Teil ist der Header, sozusagen der Kopfteil, denn hier werden alle relevanten Informationen bekannt gemacht, wie Titel, Autor, Schlagwörter etc. Dort soll die Neugier des Lesers geweckt werden, indem ein schneller Überblick über die Inhalte verschafft werden soll. Der nächste Teil ist die Einführung, in dem an das Thema der Untersuchung herangeführt werden soll. Der Grund und die Relevanz der Untersuchung werden dargestellt, es wird sozusagen der Leidensdruck ausgedrückt, indem der Stand des Wissens bzw. des Nicht-wissens beschrieben wird. Der Leser soll nach dem Lesen der Einführung auf die Ergebnisse gespannt sein. Im darauffolgenden Teil werden der Forschungsansatz, die angewendeten Methoden, verwendete Rechenverfahren, genutzte Messmittel usw. beschrieben. Dies muss so veranschaulicht werden, dass der Leser dies absolut versteht und selbst in gleicher Weise nachmachen könnte, denn nur so lässt sich eine Vergleichbarkeit der Ergebnisse herbeiführen bzw. die Reproduzierbarkeit. Der nächste Teil ist der Hauptteil des Artikels, denn hier werden die Ergebnisse vorgestellt. Tabellen und übersichtliche Darstellungen sind hier das Wichtigste, um die Ergebnisse entsprechend zu visualisieren. Darauf folgt die Diskussion, wo die Ergebnisse interpretiert werden und wo die neuen Erkenntnisse vorgestellt werden sollen. Auch ein Ausblick auf weitere Untersuchungen wird vorgenommen. Darauf folgt die Zusammenfassung, in welcher die wichtigsten Inhalte nochmal prägnant zusammengefasst werden sollen. In der darauffolgenden Anerkennung wird den Kollegen gedankt, die an dem Forschungsprojekt beteiligt waren. Und zu guter Letzt kommt die Literaturangaben, in welcher aller für diesen Artikel zitierten Quellen aufgeführt werden. Hat Spaß gemacht die Frage zu beantworten, allerdings musste man sich etwas beschränken, da die Antwort sonst ausgeufert wäre.
Licinia Welchen Sinn hat der Review-Prozess? Wer sollte im besten Fall als Gutachter eingesetzt werden? Unter Review-Prozess versteht man auch Qualitätssicherung, denn hier wird der Artikel von Gutachtern unter die Lupe genommen. Die Gutachter sollen sicherstellen, dass die wissenschaftlichen Veröffentlichungen einen gewissen Qualitätsstandard erfüllen. Sie betrachten dabei auch die inhaltlichen Aspekte sowie die Form und den Nutzen der Veröffentlichung. Das Gutachten muss eine außenstehende Person durchführen, die in keinem Verhältnis zu dem Verfasser des Artikels steht, der Gutachter darf nämlich nicht befangen sein. Auch der Autor darf nicht wissen, welche Person das Gutachten durchführt. Man spricht hier auch von einer „double-blind“-Situation. Außerdem gibt es meistens zwei Gutachter. Falls die zwei Gutachten nicht übereinstimmen wird eine dritte Person zu Rate gezogen. Die Gutachter sind immer Personen, die selber in der Forschung tätig sind. Die Gutachter arbeiten unentgeltlich, damit in diesem Bereich kein Wettbewerb entsteht. Die Frage war sehr interessant, da man über das Wikimodul hinaus recherchieren musste, wie genau ein Gutachten von Statten geht und von wem es durchgeführt werden kann.
Alex Nenne vier Publikationsformen. Gehe jeweils auf die Verwendung ein und erläutere die Vorteile und ggf. auch die Nachteile. 1) eigene Homepage: Eine eigene Homepage kann man z.B. im Rahmen der Lehre und innerhalb des Studiums aufbauen, hier können relativ oberflächliche Informationen veröffentlicht werden und weitere Ankündigungen und Informationen bereit gestellt werden. Vorteil hierbei ist, dass nahezu jeder in eigener Regie und selbstständig eine Homepage erstellen könnte und somit schnell, günstig und einfach weite Kreise erreicht. Nachteil ist jedoch die geringe Sichtbrakeit und die geringe Anerkennung in der wissenschaftlichen Welt. Hier findet keine Qualitätssicherung statt (reviewing). 2) Konferenzbände: Hier werden die Beiträge und Präsentationen einer Konferenz zusammengefasst. Vorteil ist die Zusammenfassung der Informationen der Konferenz, Nachteil jedoch ist, dass nur eine geringe Anzahl an Wissenschaftlern Zugang zu diesem Konferenzband hat und so die Sichtbarkeit und Verbreitung relativ niedrig ist. 3) Publikationen in Zeitschriften: Hierzu gehören auch Kurzpublikationen, Originalarbeiten und Übersichtsartikel. Es ist ein sehr effektiver Weg des schnellen Dokumentierens, die im Leser die Neugier für die Untersuchung wecken soll. Ebenfalls stellt diese Publikationsform eine umfassende, wissenschaftliche Dokumentation der Forschungsergebnisse dar, sowie die Darstellung der Erkenntnisse sowie dessen Interpretation. Übersichtsartikel geben einen zusammenfassenden und übersichtlichen Einblick in die Thematik. Vorteil ist bei dieser Publikationsform vor allem die Qualitätssicherung durch peer reviewing durch ein Gutachtensystem. Durch geringen Aufwand kann man Ergebnisse schnell verbreiten und sichtbar machen. Diese Form verfügt meistens über eine hohe Substanz und fachliche Tiefe. Zeitschriftenpublikationen eignen sich vor allem auch für den Einstieg in ein Thema, besonders Übersichtsartikel. Dessen Nachteil ist jedoch ein sehr hoher Aufwand und nicht die Publikation von eigenen Ergebnissen und Forschungsarbeiten steht hier im Vordergrund, sondern vielmehr von anderen Wissenschaftlern. 4) Publikation in Büchern: Hierunter zählt man Nachschlagewerke und Handbücher, editierte Mehrautorenbücher, Lehrbücher und Monografien. Hierbei handelt es sich um ausführliche Dokumentationen und umfangreiche Zusammenstellungen eines Forschungsbereiches, eine strukturierte Darstellung von Methoden, Daten und Wissen, einen Bericht des aktuelle Standes in der Wissenschaft, lehrhafte Einführungen und Ausarbeitungen sowie ausführliche Beschreibungen des Wissens zu einem bestimmten Thema. Vorteil bei dieser Publikationsform ist die gute Bereitstellung von Basiswissen und Standardwissen (verfestigtes Wissen), die umfangreiche und detallierte Darstellung der Themen, in Lehrbüchern die aufbereitetetn Übungen und Aufgaben zum Thema zur Erlernung der Inhalte und das Wissen von Experten auf einem bestimmten Gebiet. gute Aufgabe um sich einen kurzen Überblick über die Publikationen zu verschaffen sowie über die Vor- und Nachteile, gute Methode Informationen aus der Tabelle in die Textform zu bringen.
Alex Wie siehst du die Zukunft eines Wissenschaftlers, der seine Forschungsarbeit nicht publizieren will? Wissenschaftler müssen eigentlich immer mit der Zeit gehen und aktuell sein, da dies auch der Anspruch und die Forderung an Wissenschaft und Forschung ist, sich stets mit aktuellen Problemen zu beschäftigen und mögliche Lösungen zu finden.Deswegen ist das Internet und seine Online-Publikationen für Wissenschaftler unverzichtbar, um ihre Ergebnisse und Forschungsarbeiten schnell, winfach und effizient zu verbreiten und somit eine möglichst hohe Sichtbarkeit erreichen. Da der Trend immer mehr zur Online-Publikationen geht, müssen Wissenschaftler diesen Trend wohl mitgehen, um mitten drin im Forschungsgeschehen und den aktuellen Themen der wissenschaftlichen Arbeit zu bleiben. Gehen Sie diesen Trend nicht mit, werden sie wahrscheinlich überhört werden. Somit haben Wissenschaftler fast keine Alternative und müssen sich irgendwie anpassen, wenn ihre Forschungsarbeiten Bekanntheit und weite Verbreitung erlangen wollen. Kritisch auf diese Problematik geschaut, sollten wir jedoch darauf achten, dass Bücher eines Tages nicht ganz verschwinden, denn ein Buch in der Hand zu halten ist dann doch nochmal eine ganz andere Art von Wissenschaft, Lernen und Lesen. gute Möglichkeit kritisch über die aktuelle Entwicklung im Internet nachzudenken, und dass man eigentlich wenig Möglichkeiten hat, sich diesem Trend zu widersetzen, da heutzutage nahezu jeder kleine Schritt über das Internet erfolgt.

Reflexionen zu STAT2_Deskriptive Statistik

Letzte Änderung: 30.11.2014

Student Frage Antwort Selbstreflexion
Licinia Welche Skalenniveaus kann man unterscheiden? Geb jeweils ein kurzes Beispiel an. Skalen werden in der Statistik benötigt, um Zuordnungen abzubilden. Insgesamt unterscheiden wir zwischen 4 Skalenniveaus, je nach Art der Zuordnung und je nach Art der geltenden Relationen bei einer Messung. Mittels der Nominalskala wird eine kategoriale Unterscheidung vorgenommen, denn hier wird beispielsweise zwischen zwei Geschlechtern unterschieden. Bei der Ordinalskala liegt eine Ordnungsrelation vor, denn hier haben wir geordnete Kategorien wie beispielswiese Schulnoten von 1 bis 6. Bei der Intervallskala liegt eine Distanzrelation vor, die gleiche abstände misst. Zeitmessungen (Datum) werden hier veranschaulicht. Die Verhältnisskala hat einen absoluten Nullpunkt, denn hier wird beispielweise das Alter von 0 bis 99 veranschaulicht. Es ist sehr wichtig die unterschiedlichen Skalentypen genau zu kennen. Deswegen eine gute Frage. Allerdings ist es mir schwierig gefallen noch weitere Beispiele für die jeweiligen Skalen zu finden.
Licinia Welche statistischen Kennzahlen müssen in jeder statistischen Untersuchung vorkommen, da sie besonders aussagekräftig sind? Statistische Kennzahlen bzw. Maßzahlen dürfen selbstverständlich in keiner Untersuchung fehlen, da es sich um numerische Größen handelt, mit denen man die Mitte von Datenmengen oder Datenwerten berechnen kann. Das arithmetische Mittel, auch Mittelwert genannt, wird berechnet in dem man alle Merkmalsausprägungen summiert und durch die Anzahl der Merkmalsausprägungen teilt. Auch der Median, auch Zentralwert genannt, ist eine wichtige Größe, wobei er nicht sonderlich oft benutzt wird. Durch ihn wird die Mitte eines Datensatzes ausgedrückt. Der Modalwert als dritte statistische Maßzahl hebt die am häufigsten auftretende Ausprägung hervor. Varianz und Standardabweichung sind sehr wichtige statistische Maßzahlen. Die Varianz ist ein Maß für die Streuung von Daten. Sie wird berechnet, indem man die Differenz zwischen Merkmalsausprägungen und Mittelwert zum Quadrat nimmt, und das Ergebnis wird durch n-1 geteilt. Die positive Quadratwurzel der Varianz nennt man Standardabweichung. Etwas kompliziertere Frage, da es nicht reicht die wichtigen statistischen Kenngrößen, einfach nur aufzuzählen. Des Verständnisses wegen habe ich die Vorgehensweise zur Berechnung der Maßzahlen dazugeschrieben, da sie zwingend dazu gehört.
Alex Was versteht man unter dem arithmetischen Mittel und dem Median? Gib ein Beispiel? 1) Das arithmetische Mittel oder auch Mittelwert genannt, beschreibt die Mitte einer Menge von Datenwerten. Wir bekommen so Informationen über einen Durchschnittswert in der Stichprobe. Die Werte einer Datenmenge werden alle aufsummiert und dann durch die Anzahl in der Stichprobe n geteilt. Beispiel: Der Technikindex beim Kurzschwung im alpinen Skisport wird berechnet. Die Werte betragen summiert 120, es gibt 12 Versuchspersonen. 120 : 12 = 10. Der durchschnittlich erreichte Technikindexwert liegt also bei 12. 2) Der Median ist eine andere Maßzahl für die Mitte einer Stichprobe. Wir bekommen hierbei eher eine Information über die örtliche Lage in der Stichprobe. Wenn n ungerade ist liegt der Median an (n+1)/2 -ter Stelle. Ist n gerade, dann dividiert man die Stichprobe n durch 2 (n:2). Beispiel: Unsere Stichprobe besteht aus 12 Veruchspersonen. 12:2 = 6. Die Mitte der Stichprobe liegt an 6 ter Stelle. gute Unterscheidung zwischen Mittelwert und Median, man konnte sich beide Kenngrößen nochmal klarer im Kopf einspeichern und den Unterschied deutlich herausarbeiten, Frage hat mir viel gebracht!! ;-)
Alex Wie fortschrittlich findest du die „Statistik“ und die Auswertungsverfahren am PC, mit denen wir heutzutage in der Sportwissenschaft arbeiten? Hast du Verbesserungsvorschläge? Die Statistik und ihre Anwendungsverfahren am PC finde ich sehr praktisch und fortschrittlich. Durch die Statistik und bestimmte Berechnungs- und Auswertungsverfahren kann die Forschung wichtige neue Erkenntnisse gewinnen. Vor allem die Kopplung zwischen Statistik, Praxis und anschließende oder parallele Aufzeichnung und Verarbeitung durch bestimmte Computerprogramme, wie z. B. das Beispiel der LabDemo zeigt, sind eine fortschrittliche und praxisorientierte statistische Methode, die gute Ergebnisse liefern kann. Das Max-Min-Kon-Prinzip versucht ebenso Fehlerquellen und Störgrößen zu minimieren und Effektgrößen zu maximieren, was eventuelle Störgrößen vermeiden sollte. gute Möglichkeit für kritische Betrachtung

Reflexionen zu AFM7_Forschungsethik

Letzte Änderung: 09.12.2014

Student Frage Antwort Selbstreflexion
Licinia Wieso muss die Forschungsethik unbedingt in den Forschungsprozess mit einbezogen werden? Die Forschungsethik muss in jeden Forschungsprozess einbezogen werden, da sie sich mit der Verantwortlichkeit der Forschung, bzw. ihren Auswirkungen auf die Gesellschaft beschäftigt. Die Interessen und Rechte der Versuchsteilnehmer, sowie die der Allgemeinheit müssen in jedem Forschungsprozess gewahrt werden. Es müssen Vorgehensweisen und Maßnahmen zur Sicherung ethischer Rahmenbedingungen getroffen werden, so müssen zum Beispiel die Probanden über die Ziele, den Ablauf und die Risiken des Versuchs aufgeklärt werden. Kommt es in einem Forschungsprozess zu einer Verletzung der ethischen Grundsätze, muss von einer Ethikkommission geprüft werden, ob dies durch den zu erwartenden Kenntnisgewinn gerechtfertigt ist. Die Forschungsethik ist meiner Meinung nach eines der wichtigsten Bereiche bei der Vorbereitung eines Forschungsprojekts, da es um die Interessen der gesamten Gesellschaft geht. Deshalb eine sehr wichtige Frage.
Licinia Welche Faktoren in einem Forschungsprozess müssten geprüft werden, damit ein Forschungsantrag von der Komission auch genehmigt wird? Folgende Faktoren müssen in einem Forschungsprozess geprüft werden, damit der Antrag von der Ethikkommission genehmigt wird. Persönliche Informationen müssen absolut anonym bleiben, es dürfen keine Rückschlüsse auf die Vesuchsteilnehmer möglich sein. Desweiteren dürfen die Probanden und die Wissenschaftler keine körperlichen und seelischen Schäden davontragen. Die Versuchspersonen müssen der Untersuchung, nämlich den Versuchszielen und dem Ablauf, schriftlich zustimmen, nachdem ihnen die Absicht der Untersuchung vorgestellt wurde. Die Probanden müssen das Recht haben, die Untersuchung jederzeit abbrechen zu dürfen. Desweiteren muss eine geeignete Untersuchungsatmosphäre geschaffen werden. Die Versuchsleiter sind verantwortlich für die Schaffung einer vertrauensvollen und erfolgreichen Zusammenarbeit, indem sie u.a. sensibel, höflich und präsent sind. Sind all diese Faktoren gewährleistet, so stehen die Chancen gut, dass die Ethikkommission den Forschungsantrag genehmigt. Interessante Frage, da man sich mit der Forschungsethik auseinandersetzen muss, wenn man irgendwann selber wissenschaftlich tätig sein will.
Alex Was versteht man unter Grenzfällen? Erläutere an einem praxisnahen sportwissenschaftlichen Beispiel. Unter Grenzfällen versteht man einen Untersuchungsfall, in dem sich die Umsetzung der ethischen Anforderungen als schwierig herausstellen könnte. Das Verhältnis der Fragestellung und den ethischen Anforderungen muss unbedingt kritisch hinterfragt werden und ausführlich abgewägt werden, was aus ethischer Sicht ohne Bedenken untersucht werden darf und was nicht. Ein sportwissenschaftliches Beispiel wäre die Untersuchung eines Skifahrers im alpinen Rennsport, bei dem Faktoren wie Reaktionsfähigkeit und das situative Verhalten der Bewegung auf immer wieder neue Umgebungs- und Randbedingungen (Wettereinflüsse, Untergrund, Geschwindigkeit, Schneebeschaffenheit, Eisplatten, Schläge in der Piste, Lichtwechsel Hell-Dunkel) Es gibt Untersuchungen, bei denen die Versuchsperson vor dem Experiment nicht wissen darf, was auf ihn zukommt, da das Untersuchungsergebnis sonst verfälscht werden könnte. Hier müssen aber die bestehenden ethischen Anforderungen noch strenger udn ausführlicher sowie detaillierter geprüft werden. Nach dem Experiment muss die Versuchsperson allerdings über das Untersuchungsziel und die Durchführung aufgeklärt werden. Festigt das Verständnis bezüglich der Grenzfälle, auch durch das Finden von Beispielen, wobei es nicht immer einfach ist passende Forschungsfragen zu finden.
Alex Anhand welcher ethischen Werte sollte man in der Forschung im sportwissenschaftlichen Bereich abwägen? In der Forschung im sportwissenschaftlichen Bereich wägt man zwischen folgenden ethischen Werten ab, wobei die sogenannte Joanneum-Regel verwendet werden kann: 1) Vorrang Menschenrechte vor Eigenrechte der Natur, 2) Vorrang Menschenrechte vor Nutzenserwägungen, 3)Vorrang öffentliches Wohl vor privaten Interessen, 4) Vorrang Sicherheit vor Funktionalität und Wirtschaftlichkeit. Die ethischen Werte werden nun gewichtet und höherrangige Werte priorisiert. gute Wiederholung und Einprägung, gute Frage zur Festigung des Verständnisses

Reflexionen zu STAT3_Wahrscheinlichkeiten

Letzte Änderung: 09.12.2014

Student Frage Antwort Selbstreflexion
Licinia Mengenlehre: Welche 4 Mengenoperatoren gibt es und wie kannst Du einen Stichprobenraum beschreiben? Die Mengenlehre beschäftigt sich mit der Untersuchung von Mengen, also mit der Zusammenfassung von Objekten. Laut Georg Cantor verstehen wir unter einer „Menge“ jede Zusammenfassung M von bestimmten wohlunterschiedenen Objekten m unserer Anschauung oder unseres Denkens (welche die „Elemente“ von M genannt werden) zu einem Ganzen (http://www.philosophie.uni-hamburg.de/Dokumente/PDFs/Mengenlehre_WS0809_Folien.pdf .). Im Folgenden werden die vier gängigsten Mengenoperatoren vorgestellt. Die Vereinigungsmenge einer Menge U von Mengen ist die Menge der Objekte, die in mindestens einem Element von U enthalten sind. Die Schnittmenge (auch Durchschnittsmenge) von U ist die Menge der Objekte, die in jedem Element von U – das ist jeweils wiederum eine Menge – enthalten sind. Die Differenz bzw. das Komplement wird gewöhnlich nur für zwei Mengen definiert: Die Differenzmenge von A und B ist die Menge der Elemente, die in A, aber nicht in B enthalten sind. Der vierte gängigste Mengenoperator ist die Teilmenge. Eine Menge A heißt Teilmenge einer Menge B, wenn jedes Element von A auch Element von B ist. Unter Stichprobenraum, auch Ereignisraum genannt, versteht man die Menge aller möglichen Ergebnisse eines Zufallsexperiments, einer Befragung etc. Die Untermenge E des Stichprobenraums wird als Ereignis bezeichnet. Zur Beantwortung dieser Frage haben die Informationen im Wikimodul nicht ausgereicht, weswegen weiterführende Recherche notwendig war. Dies lies mich das Thema aber auch besser verstehen.
Licinia Wie verändert sich die Normalverteilung (Kurve), wenn die Standardabweichung erhöht oder verringert wird? Wenn die Standardabweichung erhöht wird, dann flacht die Kurve ab. Und wenn die Standardabweichung verkleinert wird, dann wird die Glockenkurve spitzer. Für mich anfangs eine etwas schwierigerer Frage, aber nach ausführlicher Recherche war sie gut zu meistern. Gut, dass ich mich intensiver mit dem Thema befassen musste, denn nur so habe ich es richtig verstanden.
Alex Erkläre an einem sportwissenschaftlichen Beispiel den Begriff der Zufallsvariable. Gehe explizit auch auf die diskrete und stetige Variable ein.Eine Zufallsvariable kommt immer in einem Zufallsexperiment vor. Hierbei sind aber nicht die Details interessant, sondern vielmehr der Wert einiger numerischer Größen, die aus einem bestimmten Ergebnis berechnet werden können. Dieser Wert wird Zufallsvariable genannt. Die Zufallsvariable kann in eine diskrete und eine stetige Zufallsvariable aufgeteilt werden: 1) Diskrete Zufallsvariable: Die Menge erläutert hier eine Zahlenfolge, die Variablen können abgezählt werden und sind begrenzt (z.B. ein Würfel). 2) Stetige Zufallsvariable: In einem Intervall sind hierbei viele Zwischenwerte möglich, die unbegrenzt sein können(z.B. Thermometer). Ein sportwissenschaftliches Beispiel für eine Zufallsvariable wäre z.B. die Zeit, die ein Riesenslalom-Läufer für einen Durchgang im Rennen braucht. Hier kann es wiederum beliebig viele Zwischenzeiten in einem Intervall geben (Stetige Zufallsvariable). Gute Wiederholung mit eigenem Beispiel
Alex Du wirfst eine Münze. Erkläre daran die Bernouille-Variable und den Binominalfaktor. Die Bernoulli-Variable, ist eine Zufallsvariable mit 2 Ausgängen, Erfolg und Misserfolg. Bei einem Erfolg nimmt die Variable den Wert 1 an, bei einem Misserfolg den Wert 0. P wäre also das Erfolgsereignis und (1-P) das Misserfolgsreignis. Wenn ich nun eine Münze werfe, habe ich ebenso nur 2 Ausgänge: Kopf oder Zahl bzw. Erfolg und Misserfolg. Der Binomialfaktor „n über k“ erklärt die Anzahl der Gruppen von k Objekten, die aus einer bestimmten Menge n ausgewählt werden. n bezeichnet z.B. die Anzahl der Versuche und k bezeichnet dabei die Treffer. Das Ergebnis gibt uns einfach die Anzahl aller denkbaren Möglichkeiten an. gute Wiederholung und Festigung des Lernstoffes, ich konnte mich nochmal damit auseinandersetzen und somit besser verstehen

Reflexionen zu QFM09_Eye-Tracking

Letzte Änderung: 19.01.2015

Student Frage Antwort Selbstreflexion
Licinia Beschreibe die zwei Visualisierungsmöglichkeiten kurz. Heat-Maps und Scanpaths sind die zwei Visualisierungsmöglichkeiten, die wir beim Eye-tracking anwenden können. Heat-Maps benutzen wir, wenn wir die Beobachtungsintensität veranschaulichen wollen. Die Bereiche, die sehr oft bzw. sehr lange betrachtet werden, auch Hot-Spots genannt, werden mit warmen Markierungsfarben unterlegt. Der am längsten betrachtete Bereich wird mit rot markiert, dann orange, gelb usw. markiert. Der am wenigsten betrachtete Bereich wird mit kalten Farben wie blau markiert. Bei den Scanpaths, auch Gaze-Plots genannt, wird die Intensität der Betrachtung durch Kreise abgebildet. Je größer die Intensität, desto größer demnach der Kreis. Bei den Scanpaths geht es aber vorranging um die Visualisierung des Blickverlaufs. Die Kreise werden dann mit Linien miteinander verbunden und gemäß der Reihenfolge nummeriert. Hierbei handelt es sich um eine Basisfrage, was das Eye-tracking angeht. Die Beantwortung dieser Frage ist eine sehr gute Vorbereitung auf den Test.
Licinia In welchen Bereichen im Sport wäre es sinnvoll und vorteilhaft Eye-Tracking zu verwenden? In vielen Sportarten würde es Sinn machen Eye-tracking anzuwenden. Im Baseball, um zu untersuchen ob der schlagende Spieler konstant den Ball anschaut. Ebenso im Tennis, um zu untersuchen, ob der Spieler die ganze Zeit den Ball während des Schlages anschaut oder um im Tennis die Bewegung des Balles nachvollziehen zu können. In Kampfsportarten wie Boxen oder Kickboxen würde es ebenfalls Sinn machen, um zu untersuchen, wohin der Schlagende schaut, wenn er einen Schlag ausführt. Desweiteren wäre Eye-tracking im Fussball interessant. Man könnte untersuchen, wohin der bzw. die Spieler schauen, wenn sie sich in einem Zweikampf um den Ball befinden. Ob sie auf die Füße des anderen oder nur auf den Ball schauen. Oder wohin der Torwart sowie der Schießende beim Elfmeter schauen. Schaut der Schießende nur auf den Ball oder auf die Stelle im Tor, wo er hinspielen will. All dies wären denkbare Anwendungsbereiche für Eye-tracking im Sport, aber es gibt noch viele viele mehr. Das ist es worauf es ankommt – das Gelernte in die Praxis zu übertragen und ggf. anzuwenden. Sich in die Materie hineinzudenken und sich Gedanken über die Anwendungsbereiche zu machen. Deswegen ist dies eine sehr gute Frage.
Alex Was versteht man unter Eye-Tracking und welche Vorteile bietet es? Unter Eye-Tracking versteht man eine nonverbale Untersuchung, bei dieser mit einem Eye-Tracker (technisches Hilfsmittel) die Bewegung des AUges und Verweildauern und Blickfokussierung (Fixation) bestimmter Punkte auf einer Bildoberfläche aufgezeichnet und anaylisiert werden. Durch dieses Untersuchungsverfahren kann aufgezeichnet werden, welche Regionen des Auges fixiert werden, wie oft und wie lange ein bestimmter Reiz betrachtet wird (Intensität) und auch in welcher Reihenfolge Objekte angeschaut werden. Die Oberfläche kann statisch oder auch dynamisch sein. Vorteile der Eye-Tracking-Analyse sind: 1) Die gewonnen Daten geben Rückschlüsse auf die kognitiven Vorgänge einer Versuchsperson. 2) Der Effekt der sozialen Erwünschtheit und der Versuchsleitereffekt wird minimiert oder ganz ausgeschaltet. 3) Man kann sehen, ob eine Versuchsperson den ganzen Text liest oder und nur bestimmte Wörter und wo der Aufmerksamkeitsvorgang liegt. 4) Suchverhalten kann nachvollzogen werden. gute Frage um das VErständnis von Eye-Tracking zu stärken, gute Übung noch einmal kurz in eigenen Worten Eye-Tracking zu erklären, gut zu merken :)
Alex Eye-Tracking im Sportsponsoring - Welche Zukunft siehst du? Eye-Tracking im Sportsponsoring wird in Zunkunft denk ich immer mehr genutzt werden und ausgebaut werden. Die Technik und somit auch die technischen Hilfsmittel entwickeln sich so schnell, dass sie immer besser und kleiner werden. Die Versuchsperson wird bald nicht mehr merken, dass sie sich in einer Untersuchungssituation befindet. Ich denke vor allem im Sportmarketing und Sponsoring wird in Zukunft viel gearbeitet werden, weil man damit sehr aussagekräftige und wichtige Daten gewinnen kann, die direkt auf die Praxis bezogen und eingebaut werden können. Vor allem in den Bereichen Werbung und Sponsoring. gute Frage, um einmal über die Praxisrelevanz des Eye-Trackings nachzudenken, über Anwendungsbereiche und die technische Entwicklung.

Reflexionen zu QFM10_Stichprobenauswahl

Letzte Änderung: 14.01.2015

Student Frage Antwort Selbstreflexion
Licinia Beschreibe die Kriterien zur Bewertung einer Stichprobe kurz. Insgesamt müssen für die Bewertung einer Stichprobe drei Kriterien beachtet werden. Die Art der Stichprobengewinnung ist sehr wichtig. Daraus lässt sich beurteilen, ob die Stichprobe repräsentativ und generalisierbar ist. Eine Zufallsstichprobe gewährleistet die höchste Repräsentativität. Desweiteren ist die Größe der Stichprobe wichtig. Der Stichprobenumfang und der Stichprobenfehler stehen in Beziehung zueinander, denn der Standardfehler wird umso kleiner, je größer der Stichprobenumfang ist um umgekehrt. Dies ist der Grund warum man immer möglichst große Stichproben anstreben sollte. Eine zu große Stichprobe würde allerdings den ökonomischen Gesichtspunkten schaden, weswegen eine Stichprobe über 30 Personen unökonomisch wäre. Und das dritte Kriterium ist, ob die tatsächliche Teilnahme der intendierten Stichprobe entspricht. Die Kriterien zur Bewertung einer Stichprobe muss man auf jeden Fall beherrschen – hierbei handelt es sich um absolutes Basiswissen. Es hat mir sehr viel geholfen die Antwort als Fließtext zu schreiben, da man so das Gelernte am besten abspeichert.
Licinia Was könnte bei Deiner Untersuchung schief gehen, wenn du eine zu kleine oder eine zu große Stichprobengröße wählst? Gib ein kleines Beispiel an und erkläre somit das Problem. Beispielweise möchte ich die Balancierfähigkeit bei Kindergartenkindern im Alter von 5 Jahren testen. Die Entscheidung wie viele Kinder ich in meine Studie miteinbeziehe hängt davon ab, wie gering ich den Stichprobenfehler halten will und welche Kapazität meine ökonomischen Aspekte zulassen. Der Standardfehler wird umso kleiner sein, je größer meine Stichprobe ist. Ist der Umfang meiner Stichprobe allerdings zu groß, so sind meine ermittelten Werte möglicherweise nicht relevant. Außerdem könnte eine zu große Stichprobe den ökonomischen Rahmen sprengen. Ist meine Stichprobe jedoch zu klein z.B. nur 8 Kinder, die ich teste, kann ich keine repräsentativen Daten gewinnen. Am besten wäre es, eine Stichprobengröße von 30 Kindergartenkindern zu gewinnen. Allerdings muss ich bei meiner Planung auch die Ausfallrate berücksichtigen. Es könnte passieren, dass von meinen 30 eingeplanten Kindern acht krank sind und drei an dem Testtag einfach keine Lust haben. Deswegen sollte man diesen Test mit 40 Kindern ansetzen. Sehr interessante Frage, da man sich explizit über die Stichprobengröße Gedanken machen muss. Eine wirklich relevante Frage, wenn man später wissenschaftliche Studien betreiben will.
Alex Nenne die drei am häufigsten verwendeten Stichprobenerhebungstechniken und beschreibe das jeweilige Vorgehen. 1) Zufallsstichprobe: Aus der Grundgesamtheit (Population) wird durch ein Zufallsprinzip wie z.B. durch ein Losverfahren die Stichprobe ausgewählt und ermittelt. Diese Methode wird vor allem dann angwendet, wenn man noch keine oder nur sehr wenige Informationen über die Merkmalsverteilungen in einer Population besitzt. 2) Anfallende Stichprobe (Ad-Hoc Stichprobe): Die Stichprobe wird aus einer Grundgesamtheit ausgewählt, die zu einem bestimmten Zeitpunkt an einem bestimmten Ort ist, z.B. werden alle Personen, die an einem Mittwoch im Fitnessstudio trainieren in die Untersuchung aufgenommen. 3) Klumpen-Stichprobe (Stichprobencluster): Diese Stichprobe beschreibt immer ganze Kollektive, wie z.B. die Skischul-Gruppe eines bestimmten Skilehrers oder das österreichische Ski alpin World Cup Team. Frage stellt eine gute Wiederholung der Stichprobenerhebungstechniken dar und ist eine gute Vorbereitung auf die Transferfrage. Durch das Ausformulieren in eigenen Worten verstärkt man den Lernprozess.
Alex Du führst eine Untersuchung mittels einer Klumpenstichprobe durch. Welche Fehlerquellen könnten auftreten? Da eine Klumpenstichprobe immer ganze Kollektive beschreibt, könnte man annehmen, dass sie die Individuen einer Gruppe bzw. eines Teams alle sehr ähneln. Sie sind alle in einer bestimmten Klasse aktiv, die bei allen gleich ist und somit kann man davon ausgehen, dass auch alle Sportler ungefähr ein ähnliches Leistungsniveau besitzen. Dadurch kann die Stichprobe sehr einseitig sein und auf einen sehr speziell definierten Personenkreis bezogen. Das Ergebnis dieser Untersuchung kann nun nicht auf die Grundgesamtheit aller Sportler dieser Sportart übertragen werden, sondern nur auf diese bestimmte Gruppe, die den Kriterien entspricht (z.B. Spielklasse und Leistungsniveau, Alter, Anzahl der Trainingseinheiten pro Woche). Die Untersuchung von Leistungssportlern kann somit keineswegs auf Breiten- und Freizeitsportler übertragen werden, weil hier komplett unterschiedliche Bedingungen herrschen. Möchte man ein eher durchschnittlichere und allgemeinere Untersuchungen durchführen, um die Ergebnisse auch auf einen größeren Personenkreis übertragen zu könnne, wäre eine andere Stichprobenerhebungstechnik sinnvoll. Frage regt dazu an, über Vor-und Nachteile der Stichprobentechniken nachzudenken und für welche Art von Stichprobe welche Technik passend ist. Durch die Überlegungen versteht man besser, wann welche Technik praktischer, sinnvoller und effektiver wäre.

Reflexionen zu QFM14_Fragebogen

Letzte Änderung: 19.01.2015

Student Frage Antwort Selbstreflexion
Licinia Wie werden die Fragen eines Fragebogens erarbeitet? Beschreibe die beiden Schritte kurz. Die Erarbeitung der Fragen erfolgt in zwei Schritten. Als erstes werden die sogenannten Programmfragen bzw. Erhebungsgesichtspunkte entwickelt. Hierbei steht die sinnvolle Strukturierung von Fragekomplexen und Problemstellungen im Vordergrund. Danach werden die Programmfragen in konkrete Items übersetzt, nämlich in die Ermittlungsfragen. Diese sollten so konkret wie möglich formuliert und gut verständlich sein. Man muss sich mit den Fragestellungen an der Zielgruppe orientieren, um die Befragten mental nicht zu überfordern. Fragen zu gemeinsamen Themenkomplexen sollten aufeinanderfolgen um Gedankensprünge der Befragten zu vermeiden. Außerdem sollte man mit sog. Eisbrecherfragen den Fragebogen beginnen, um die Antwortbereitschaft positiv zu beeinflussen. Dann sollte man sich von allgemeinen zu besonderen, von vertrauten zu unvertrauten und von einfachen zu komplexen Themengebieten vorarbeiten. Man hätte die Frage noch ausführlicher beantworten können, aber in dieser Antwort sind die wichtigsten Knackpunkte enthalten.
Licinia Man kann 3 Fragetypen unterscheiden. Stelle Dir vor, Du konstruierst gerade einen Fragebogen zu einem beliebigen Thema. Gib für jeden Typ bitte eine Beispielfrage an. Die drei Fragetypen, die wir hier unterscheiden können sind offene Fragen, geschlossene Fragen und Hybridfragen. In unserem Beispiel erstellen wir einen Fragebogen zur Studienzufriedenheit an der TU Darmstadt. Bei offenen Fragen werden keine Antwortmöglichkeiten vorgegeben, man kann sie frei und nach Belieben beantworten, Bsp.: „ Inwieweit bringt Ihr Studium Sie Ihrem Berufswunsch näher?“. Der Student kann eine beliebige Antwort geben. Geschlossene Fragen geben Antwortmöglichkeiten vor, denn man kann sie beispielsweise mit ja oder nein beantworten, Bsp.: „Halten Sie Studiengebühren für sinnvoll?“. Hybridfragen hingegen geben mehrere Antwortmöglichkeiten vor und bieten zusätzlich noch eine offene Antwortmöglichkeit an, Bsp.: „Wie sollten die Studiengebühren Ihrer Meinung nach verteilt werden?“. Antwortmöglichkeiten wären hier 1. Für technische Anschaffungen 2. Für Universitätsgebäudesanierung 3. Für mehr Fachkräfte 4. Für mehr Studentenwohnheime 5. Andere: …. Gute Frage, da man nach Beantworten dieser Frage, perfekt über die drei verschiedenen Fragetypen Bescheid weiß. Sehr hilfreich, da man höchstwahrscheinlich im Rahmen seiner Masterarbeit einen eigenen Fragebogen erstellen muss.
Alex Du erstellst für eine Untersuchung einen Fragebogen. Worauf musst du bei der Konstruktion bzw. der Struktur des Fragebogens achten? Bei der Konstruktion bzw. der Struktur des Fragebogens muss beachtet werden: 1) einfach strukturierter Fragebogen. 2) sollte selbst erklärend sein, damit es dem Befragten keine Probleme bereitet, die Fragen zu beantworten. 3) Der Fragebogen sollte für andere Forscher stets nachvollziehbar und reproduzierbar sein. 4) Insgesamt sollte der Fragebogen klar und deutlich strukturiert sein. Aufgebaut sollte der Fragebogen so sein: Die ersten Items und Fragen sollten sich nicht mit heiklen oder kritischen Themen beschäftigen. Ein guter Start wären z. B. Eisbrecherfragen, mit denen versucht werden soll die Antwortbereitschaft für die wichtigen Themen somit positiv zu beeinflussen. Demografische Items können dann zum Schluss des Fragebogens eingebaut werden. Zu beachten ist auch, dass Items aus gemeinsamen Themenkomplexen aufeinanderfolgen sollten und keine Gedankensprünge entstehen. Einige weitere Grundsätze sind noch zu beachten: Fragen und Items sollten 1) vom Allgemeinen zum Besonderen, 2) vom Vertrauten zum Unvertraueten, 3) vom Einfachen zum Komplexen formuliert und aufgebaut werden. gute Wiederholung der Kernpunkte, wie ein Fragebogen aufgebaut sein sollte, gut zu merken :)
Alex Du bist Leiterin eines Fitnessstudios und eine Befragung der Kunden hat ergeben, dass diese weder zufrieden noch unzufrieden sind. Wie ist dein weiteres Vorgehen bezüglich einer neuen Umfrage? In diesem Fall spricht man von einer Indifferenz bzw. einem Indifferentbereich, womit eine Zone gemeint ist, in der der Kunde weder Begeisterung noch negative Emotionen mit einem Produkt oder einer Dienstleistung verbindet, also eine Grauzone zwischen Zufrieden- und Unzufriedenheit. Das weitere Vorgehe ist nun ein spezielles Ratingverfahren. Es wird eine Umfrage über bestimmte Itmes durchgeführt, die einen gleichen Abstand zueinander aufweisen (Äquidistanz), um die passenden Items zu finden. Dadurch entsteht eine Menge an Items, aus denen eine Favoritenauswahl herausgarbeitet wird und nun ein Rating für den Fragebogen erstellt werden kann. gute Frage für den Fall, dass mal etwas nicht wie geplant funktioniert und man im Indifferenzbereich landet, sich Überlegungen dazu machen.

Reflexionen zu QFM15_Theoriebildung

Letzte Änderung: 25.01.2015

Student Frage Antwort Selbstreflexion
Licinia Welche Explorationsstrategien gibt es? Beschreibe die dritte ganz kurz. Insgesamt stehen uns vier Explorationsstrategien zur Verfügung. Die theoriebasierte Exploration, die methodenbasierte Exploration, die empirisch-quantitative und die empirisch-qualitative Exploration. Wir wollen an dieser Stelle auf die empirisch-quantitative Exploration genauer eingehen. Mit ihr lassen sich neue Ideen und Hypothesen durch die Nutzung quantitativer Daten herleiten. Man kann bereits vorhandene Daten nutzen, was Sekundäranalyse genannt wird. Verwendet man hingegen eigene Daten, so spricht man von Primäranalyse. Des Weiteren hat man die Möglichkeit die Datenbeschaffung bei bspw. kommerziellen Anbietern in Auftrag zu geben. Da dies meistens mit sehr hohen Kosten verbunden ist, kommt dieses Vorgehen für Studenten nicht in Frage. Deshalb steht an dieser Stelle die eigene Datenbeschaffung, was natürlich mit einem sehr großen Zeitaufwand einhergeht, da man den kompletten Verlauf von Planung, Untersuchungsteilnehmer über Erhebungsinstrumente bis hin zur Auswertung selbst in die Hand nehmen muss. Es war gut, dass ich durch die Frage die Gelegenheit hatte mich mit der empirisch-quantitativen Exploration auseinanderzusetzen, da ich diese generell sehr wichtig finde.
Licinia Was könnten Nachteile dieser Strategie sein? Einer der größten Nachteile der empirisch-quantitativen Exploration ist wohl die selektive Wahrnehmung, da man nur das misst, was man vorher durch die Items festgelegt hat. Man hat somit einen geringen Flexibilitätsgrad während der Untersuchung und kann auf einzelnen nicht individuell eingehen. Die Testpersonen können nur aus den vorgegebenen Antwortmöglichkeiten auswählen, auch wenn dies für sie individuell vielleicht gar keinen Sinn machen würde. Sinnvoller wäre an dieser Stelle ein Interview, was wiederum in der Auswertung einen erheblichen Zeitaufwand mit sich bringt. Ein weiterer Nachteil ist, dass eine eigene und von Grund auf durchgeführte Studie einen erheblichen Zeitaufwand mit sich bringt. Zwar besteht die Möglichkeit die Datenerhebung an einen kommerziellen Anbieter abzugeben, was sich ein Student jedoch nicht leisten können wird. Um die Frage einigermaßen ausführlich beantworten zu können musste ich mich intensivst mit der quantitativen Exploration auseinandersetzen, wodurch ich mich jetzt in diesem Gebiet sehr gut auskenne.
Alex Was versteht man unter methodenbasierter Exploration? Gib ein Beispiel. Eine methodenbasierte Exploration ist eine bestimmte Art und Weise Methoden zu untersuchenm um eine Hypothese aufzustellen. Weg des wissenschaftlichen Vorgehens ist hier, dass man unterschiedliche Methoden anwendet. Das bedeutet, dass man sich dem Gegenstand aus verschiedenen Perspektiven nähert. Es gibt zwei Ansätze: den quantitativen Ansatz mit der Multitrait-Multimethod-Methode und den qualitativen Ansatz mit der Triangulation. Das Ziel der methodischen Exploration ist es die Verflechtung von Methoden und Erkenntnissen durch Vergleich und Variation der Methoden anschaulich zu machen. Man könnte z.B. eine Fragestellung mit einem Fragebogen oder einem Interview (qualitativ) oder durch eine Rating-Skala und bestimmten Messungen beantworten (qualitativ). gute Wiederholung und Einprägung dieser Methode, durch das Beispiel denkt man über die Praxisanwendung nach.
Alex Du steckst in den Anfängen einer Untersuchung und brauchst eine Vorgehensweise um mit hoher Wahrscheinlichkeit relevantes bzw. qualitatives Material zu finden. Mittels welcher Methode gehst du vor und wie sehen die einzelnen Schritte aus? Ich würde mt der empirisch-quantitativen Exploration beginnen, um erst einmal alle Grundlagen des Themas, Theorie und Empirik, kennen zu lernen. Ich würde somit die vorhanden Daten nutzen, um mir einen Überblick über die Datenmenge, die Datenqualität und die Ergebnisse zu verschaffen. Ist die Grundlage bekannt, kann man versuchen eine Hypothese zu formulieren, um Forschungslücken zu füllen und weiterführende Forschungen zu betreiben. Die Methoden auf die Praxis anzuwenden und selbst zu überlegen, wie man nun vorgehen würde, erleichtert das Verständnis des Wikis und der unterschiedlichen Explorationsmethoden.

Reflexionen zu QFM07_Körperfettanalyse

Letzte Änderung: 24.01.2015

Student Frage Antwort Selbstreflexion
Licinia Beschreibe das Messprinzip der Körperfettanalyse kurz. Bei der bioelektrischen Impedanzanalyse kann man durch elektrische Leitfähigkeit die Körperzusammensetzung messen. Ein schwacher Wechselstrom wird durch den gesamten Organismus durch die im Körperwasser gelösten Elektrolyte geleitet. Der Gesamtwiderstand, auch Impedanz genannt, und die Phasenverschiebung werden ermittelt. Die einzelnen Gewebsarten wie Skelett-, Muskel- oder Fettmasse haben unterschiedliche elektrische Widerstände, da der Flüssigkeitsanteil unterschiedlich hoch ist. Im Körperfett liegt ein hoher Widerstand vor, wohingegen im Muskelgewebe ein niedriger Widerstand vorliegt. Ich finde dieses Thema sehr interessant. Vor diesem Wiki hatte ich keine Ahnung wie eine Körperfettanalyse technisch funktioniert. Durch das genaue Beschreiben habe ich das Messprinzip sehr gut verstanden.
Licinia Wo kann die Körperfettanalyse gut angewendet werden und wo ist diese sinnvoll? Die Körperfettanalyse wird in vielen unterschiedlichen Bereichen angewendet. Sie findet nicht nur im klinisch-medizinischen Bereich, sondern auch in der Sportpraxis, sowie Gesundheits-und Ernährungsberatung Anwendung. In der Gastroenterologie nach Leber- oder Darmerkrankungen, Nephrologie, Onkologie, bei Adipositas und Endokrinologie, bei HIV-infizierten sowie in der Pädiatrie bei Mangelernährung oder Wachstumsstörungen von Kindern. Aber auch als Verlaufskontrolle bzw. Therapiekontrolle bei Gewichtsreduktionsprogrammen, sei es zur Kontrolle eines Diätverlaufs, nach einer Ernährungsberatung, bei Diabetes, Adipositas oder Essstörungen. Für mich sehr interessant, da mir aktuell nicht bewusst war in wie vielen Bereichen diese Diagnostik angewendet wird.
Alex Beschreibe die Technik des Messens der bioelektrischen Impedanzanalyse. Die Körperzusammensetzung wird durch das Prinzip der elektrischen Leitfähigkeit unterschiedlicher Gewebsarten gemessen. Ein leichter Wechselstrom wird segmental oder durch den ganzen Körper geleitet. Dies passiert anhand der im Körperwasser gelösten Elektrolyte. So wird die Phasenverschiebung und der Gesamtwiderstand ermittelt (Impedanz). Dadurch kann die genaue Zusammensetzung des Körpers ermittelt werden: Knochen (Skelett), Muskelmasse und Fettgewebe. Knochen und Fettgewebe haben einen hohen Widerstand, Muskelmasse (fettfreie Masse) einen niedrigen Widerstand. gute Methode, in wenigen Worten und kurz und knackig das MEssprinzip zu erklären, prägt sich gut ein und bringt einen guten Lernerfolg
Alex Welche Vorteile siehst du bei der Körperfettanalyse, vor allem auch im Vergleich zum BMI. Vorteile der Körperfettanalyse sind eine genaue und differenzierte Aufteilung der Körperzusammensetzung in Skelett (Knochen), Muskelmasse und Fettgewebe. Beim BMI ist dies z.B. nicht der Fall. Hier wird die prozentuale Aufteilung nicht berücksichtigt und der Anteil der Knochen und Muskulatur nicht berücksichtigt wird. Ein super trainierter Sportler mit enormer Muskelmasse und evtl. schweren Knochen würde bestimmt nicht seinen optimalen BMI-Wert erreichen. Dagegen würde die Körperfettanalyse detailliertere Werte liefern. gute praxisbezogene Fragestellung, Überlegungen zum Anwendungsbereich der Körperfettanalyse

Reflexionen zu QFM08_Schnelligkeitsdiagnostik

Letzte Änderung: 24.01.2015

Student Frage Antwort Selbstreflexion
Licinia Beschreibe die biologischen Grundlagen und leistungsbestimmenden Faktoren der Schnelligkeit kurz. Die Reaktionsgeschwindigkeit, das Verhältnis von schnellen zu langsamen Muskelfasern, die Körpertemperatur, die Dehnfähigkeit, die intra- und intermuskuläre Koordination sowie der Muskelquerschnitt sind leistungsbestimmende Faktoren für die Schnelligkeit. Die Reaktionsgeschwindigkeit beträgt im Schnitt 0.17 Sekunden und kann, da sie genetisch festgelegt ist, nur in einem gewissen Rahmen verbessert werden. Auch genetisch bedingt ist das Verhältnis von langsamen und schnellen Muskelfasern. Die Körpertemperatur, welche im Ruhezustand 34 Grad beträgt lässt sich durch körperliche Aktivität auf bis zu 39 Grad erhöhen, wodurch die Kontraktionsgeschwindigkeit um etwa 20 % gesteigert werden kann. Durch eine gute Dehnfähigkeit der Antagonisten wird eine höhere Bewegungsschnelligkeit erreicht. Durch eine schnelle intramuskuläre Koordination wird eine höhere Kontraktionsgeschwindigkeit erreicht. Eine schnelle intermuskuläre Koordination führt zu einer optimalen Abstimmung von Agonist und Antagonist und zu einer Stabilisierung der Feinkoordination, welches wichtige Faktoren für die Schnelligkeit sind. Und ein erhöhter Muskelquerschnitt bewirkt eine Zunahme der Maximal-und Schnellkraft. Natürlich handelt es sich hierbei um absolutes Basiswissen für Sportstudenten, jedoch ist es hilfreich dies von Zeit zu Zeit gründlich zu wiederholen.
Licinia In welchem Bereich lässt sich die Schnelligkeitsdiagnostik gut anwenden? Gib ein kurzes Beispiel an. Ein wichtiger Bereich der Schnelligkeitsdiagnostik ist der Nachwuchsbereich und die Talentsuche unter Kindern. Vor allem mit dem Sprinttest nach Kindermann kann unter Heranwüchsigen nach Talenten gesucht werden. Dieser Test ist relativ einfach in der Anwendung und mit ihm kann man gleich drei Schnelligkeitsfähigkeiten, nämlich die Antritts-, die Beschleunigungs- sowie die Grundschnelligkeit testen. Natürlich gibt es viele andere Anwendungsbereiche, jedoch interessiert mich dieser am meisten, weswegen ich diesen näher beschrieben habe.
Alex Du möchtest mit nur einem Verfahren Antritts-, Beschleunigungs- und Grundschnelligkeit testen. Beschreibe dieses Verfahren. Das Verfahren ist der sogenannte Sprinttest nach Kindermann. Hier wird eine Teststrecke auf 30 m ausgewählt und abgemessen. Nach 5m, 10m und 30m wird eine Lichtschranke aufgestellt. Sobald der Sportler die Lichtschranke passiert, wird die Zeit gemessen. Die Strecke wird insgesamt 3 mal durchlaufen. Im Idealfall auf einer sportartspezifischen Untergrundform. Durch die 3 Lichtschrankenmessungen erhält man nach 5m die Antrittsschnelligkeit, nach 10m die Beschleunigungsfähigkeit und nach 30m die Grundschnelligkeit. Eine gute Wiederholung des Kindermann-Tests und auch die Möglichkeit über zahlreiche Anwendungsgebiete in vielen unterschiedlichen Sportarten anchzudenken.
Alex Warum ist die Schnelligkeitsdiagnostik in der Trainings- und Wettkampfsteuerung unverzichtbar? Schnelligkeit ist eine Grundvoraussetzung für sportliche Leistungen und zählt zu den 5 motorischen Komponenten sportlicher Leistung. Das Diagnostikverfahren im Sport ist unverzichtbar, das es Schwachstellen und Schnelligkeitspotenziale entdeckt und somit das Training geplant und gesteuert werden kann, was sich dann schließlich positiv in der Wettkampfleistung zeigt. Die Schnelligkeitsdiagnostik bildet die Grundlage der Leistungsverbesserung. gute Wiederholung und sich klar machen, an welcher Stelle die Schnelligkeitsdiagnostik angewendet wird und welche Möglichkeiten sie bietet, seine Leistungen im Training und Wettkamf zu verbessern.

Reflexionen zu QFM11_Testgütekriterin

Letzte Änderung: 30.01.2015

Student Frage Antwort Selbstreflexion
Licinia Wann ist ein Test ökonomisch? Ein Test sollte einen hohen Erkenntnisgewinn liefern mit geringen finanziellen und zeitlichen Mitteln. Er sollte also eine kurze Durchführungszeit beanspruchen und einfach zu handhaben sein. Des Weiteren sollte er gruppentauglich sein und nur in geringen Mengen Material verbrauchen. Und zu guter Letzt sollte er schnell und bequem auswertbar sein. Dies ist eine wichtige Frage, denn gerade heute in Zeiten von Ressourcenknappheit sollte man sich egal in welchem Bereich Gedanken über die Ökonomie machen. Auch bei der Durchführung eines Tests sollte man ökonomisches Denken an den Tag legen.
Licinia Wie könnte man das Hauptgütekriterium Objektivität z.B. testen? Ein Test vollkommen objektiv ist, wenn verschiedene Untersucher bei denselben Probanden zu gleichen Ergebnissen gelangen. Zur Kontrolle der Objektivität lässt sich diese je nach Arbeitsschritt in drei zeitliche Aspekte gliedern: die Durchführungs-, die Auswertungs-, und die Interpretationsobjektivität. Um eine möglichst hohe Durchführungsobjektivität zu gewährleisten, muss die Testsituation so weit wie möglich standardisiert sein und die Instruktion an die Probanden so genau wie möglich sein. Um die Auswertungsobjektivität zu garantieren, muss die Auswertung der erhobenen Daten genau festgelegten Regeln folgen. Und die Interpretationsobjektivität ist vollkommen gegeben, wenn identische Ergebnisse von verschiedenen Probanden immer zur gleichen Interpretation führen. Da die Objektivität für die Durchführung eines Tests von enormer Wichtigkeit ist, ist es sehr wichtig zu wissen wie man diese prüft. Deswegen war es hilfreich diese Frage zu beantworten, indem man auf alle drei Objektivitätsarten eingegangen ist.
Alex Was versteht man unter Reliabilität? Gehe auch auf den Reliabilitätskoeffizienten ein und wie man diesen bestimmen könnte. Unter der Reliabilität eines Tests versteht man die Zuverlässigkeit und den Grad der Messgenauigkeit eines Instrumentes. Die Reliabilität beschreibt das Maß, in dem das Testergebnis frei von Messfehlern ist. So muss ein reliaber Test bei emhrfacher Anwendungen bei gleichen Personen die gleichen Ergebnisse liefern. Der Grad der Genauigkeit wird dabei durch den sogenannten Reliabilitätskoeffizienten bestimmt. Es gibt 4 Methoden mit welchen dieser Koeffizient bestimmt werden könnte: 1) Paralleltestreliabilität (Äquivalenz), 2) Retestreliabilität (Stabilität), 3) Testhalbierungsverfahren (innere Konsistenz), 4) Interne Konsistenzprüfung (Kuder-Richardson-Formel). gute Frage, um Objektivität noch einmal zu wiederholen und um es sich gut einprägen und merken zu können! :)
Alex Du führst einen Test durch, zu welchem es keine Parallelformen gibt und zu welchem keine validitätsähnlichen Tests verfügbar sind. Welches Gütekriterium wird nicht erfüllt. Beschreibe! Das Nebengütekriterium der Vergleichbarkeit wird hier nicht erfüllt. Ein Test ist vergleichbar, wenn 1) ein oder mehrere Prallelestfornen vorhanden sind und 2) validitätsähnliche Tests verfügbar sind. Denn die Parallelform des Tests ermöglicht einen Vergleich des Tests mit sich selbst. So kann man intraindividuelle Reliabilitätskontrollen durchgeführt werden. Hierbei untersucht man Probanden beider Testformen und vergleicht sie dann. Bei einer interindividuellen Reliabilitätskontrolle werden die Testergebnisse zwischen verschiedenen Probanden betrachtet und verglichen. gute Wiederholung

Reflexionen zu QFM12_Faktorenanalyse

Letzte Änderung: 30.01.2015

Student Frage Antwort Selbstreflexion
Licinia Nenne die Ziele der Faktorenanalyse und beschreibe sie ganz kurz. Ein Hauptziel der Faktorenanalyse ist die Reduktion der Variablenanzahl. Die Faktorenanalyse erkennt Variablengruppen, die ähnliche Informationen erfassen. Es ergibt sich eine ökonomischere Darstellung der Gesamtinformation, wenn die Variablen in homogenen Gruppen zusammengefasst werden. Ein weiteres Ziel ist die Ermittlung verlässlicher Messgrößen. Es ist nämlich sinnvoller die Variablen zu einem Faktor zusammenzufassen, denn so besitzt dieser Faktor günstigere Eigenschaften, als die einzelnen Variablen. Und das dritte Ziel ist die analytische Zielsetzung, denn die Faktorenanalyse ermöglicht es von manifesten auf übergeordnete latente Variablen zu schließen. Ich fande die Frage interessant, da ich mich vorher relativ wenig mit der Faktorenanalyse auskannte. Dank des Wikis weiß ich nun darüber Bescheid.
Licinia Wann ist eine Faktorenanalyse praktisch und sehr nützlich? Praktisch ist eine Faktorenanalyse, wenn eine Vielzahl von Variablen zu einer Fragestellung erhoben wurde und wenn man diese zu komplexen Hintergrundvariablen bündeln will. Beispielsweise in der Marktforschung bietet sich dieses Vorgehen an und ist sehr nützlich. Soll ein Marktforschungsunternehmen bspw. die Qualität eines neuen Fitnessgeräts testen, so wird sie auf die Faktorenanalyse zurückgreifen, da man „Qualität“ nicht durch eine einzelne Variable ausdrücken kann. Qualität ist ein komplexer Begriff und es wird ein ganzes Bündel an Variablen benötigt, wie z.B. Haltbarkeit, Preis-Leistungs-Verhältnis, Zufriedenheit etc. Dies ist eine sehr interessante Frage, da man sich intensiv Gedanken über die Anwendungsbereiche der Faktorenanalyse machen muss. Im Bereich der Sozial- oder Marktforschung ist sie eigentlich ein ständiger Begleiter.
Alex Was ist der Unterschied zwischen der konfirmatorischen und der explorativen Faktorenanalyse? Beschreibe! Ziel der explorativen Faktorenanalyse ist: Viele Variablen werden durch möglichst wenige Faktoren beschrieben und werden schließlich nach ihrer Interkorrelation (Ähnlichkeiten der Korrelationen der Items) geordnet. Ziel der konfirmatorischen Faktorenanalyse ist: die Überprüfung eines entwickeltenden Modells anhand von bestimmten Variablen auf die Übereinstimmung mit den erhobenen Daten. Die Items laden hierbei nur auf einen Faktor. Nun werden die Faktorladungen geschätzt und mit den vermuteten verglichen. Es wird also ein gemeinsamer Faktor gemessen. Hierbei geht es nicht um die Reduktion der Daten. guter Anreiz weiterführende Infos zu lesen und sich mit ihnen zu beschäftigen, verdeutlicht die Faktorenanalyse und hilft beim Verständnis des Wikis.
Alex Überlege Dir ein Beispiel, an welchem Du die Durchführung einer Faktorenanalyse beschreibst. Ich würde z.B. anhand eines Beobachtungsbogens die Technikmerkmale im Skifahren auswerten. Um die große Menge an Daten, die mit einer Skala erhoben wurden, werden nun die Variablen auf die Faktoren geladen werden. Die vielen Daten der einzelnen Items werden somit reduziert und geordnet. Die Zusammenhänge der Variablen können nun leichter anaysiert und die Ergebnisse besser interpretiert werden. gute Möglichkeit sich nochmal einmal mit der Vorgehensweise in der Praxis zu beschäftigen, um die Faktorenanalyse für sich besser zu verstehen und alles in eigenen Worten noch einmal durchzugehen.

Reflexionen zu QFM13_EMG-basierte Forschungsmethoden

Letzte Änderung: 06.02.2015

Student Frage Antwort Selbstreflexion
Licinia Welche Filtermethoden gibt es? Beschreibe Sie ganz kurz. Die Filtermethoden sind die Lowpass, Highpass, Notch und Butterworth-Filtermethode. Der Lowpass-Filter bewirkt, dass nur Signale unterhalb des vorgegebenen Schwellenwertes in die Analyse aufgenommen werden und die Werte, die sich oberhalb des Normwerts befinden werden ausgeschnitten. Im Gegensatz dazu werden beim Highpass-Filter nur Daten oberhalb eines definierten Schwellenwertes betrachtet, wohingegen Werte unterhalb des Schwellwertes außer Acht gelassen werden. Die Mischung aus diesen beiden Filtern (Low + High) wird Bandpaß-Filter genannt. Mittels des Notch-Filters kann man bestimmte Frequenzen entfernen, da bei der Verwendung von Messgeräten die Gefahr sehr groß ist, dass das eigene Signal durch Netzfrequenzen verzerrt wird. Der Butterworth-Filter wird rekursiv angewendet, d.h. das Signal wird mehrfach durchlaufen und bearbeitet, wodurch man präziser auf Störungen reagieren kann. Mithilfe des Peak-Extracting-Filter wird versucht einzelne Signalspitzen zu eliminieren, die aufgrund von Störungen entstanden sind. Je nach Datensatz ist auch eine Kombination der Filter in der vorgegebenen Reihenfolge von Vorteil. EMG Daten müssen sehr umfangreich aufgearbeitet werden, weswegen ich es im Rahmen dieses Themas sehr wichtig finde, die jeweiligen Filtermethoden zu kennen und zu beschreiben. Deswegen eine sehr gute Frage. Für mich war es hilfreich vor Beantwortung der Frage, noch weiterführend darüber zu recherchieren.
Licinia Was könnten gute Anwendungbereiche EMG-Analyse sein? Die EMG ist eine Untersuchung der elektrischen Aktivität von Muskeln und die Anwendungsbereiche sind breit gefächert, sowohl in der Medizin als auch im Rehabilitationsbereich kommt sie zum Einsatz. Man kann zum Beispiel Muskelfunktionen bei Sportverletzungen erfassen. Sie lässt sich aber auch zur Diagnostik von Fehlfunktionen bestimmter Muskelgruppen einsetzen. Aber auch zur Erfassung der Muskelfunktion bei degenerativen Erkrankungen des Bewegungsapparates. Um Nerven- und Muskelerkrankungen (zum Beispiel Muskelentzündungen oder Muskelschwächen) zu diagnostizieren, aber auch Bandscheibenvorfälle lassen sich mittels des EMG diagnostizieren. Sehr interessante Frage für mich, da ich vorher über die Anwendungsbereiche der EMG nicht so genau Bescheid wusste. Dank ausführlicher Recherche kenne ich mich nun gut in diesem Bereich aus.
Alex Beschreibe das B.A.L.A.N.C.E-Experiment kurz. Im B.A.L.A.N.C.E Projekt wurden EMG-Messungen durchgeführt, durch die das Muskelverhalten gegenüber den externen Krafteinwirkungen, sogenannte Perturbationen, am Sprung- und Hüftgelenk und ebenso im Schulterbereich untersucht werden kann. Die Versuchsperson steh beidbeinig und aufrecht da. Nun werden Drehmomente erzeugt, um das Gleichgewicht aufrecht zu erhalten. Das Projekt will genau dieses Gleichgewichtsverhalten untersuchen. Hierfür werden EMG-Elektroden an 10 verschiedenen Muskeln angebracht. Im Anschluss daran werden die oben genannten Störungen (externe Kräfte) durchgeführt. Dabei gibt es drei Internsitätsstufen (10N, 20N, 30N), die in randomisierter Reihenfolge auftreten und durch einen Federmesser bestimmt werden. super Frage, um sich das Beispiel noch einmal genauer klar zu machen und die Druchführung sowie das Ziel dieses Projektes besser zu verstehen.
Alex Welche Aktivitätsverhalten anderer Muskeln wären interessant zu untersuchen, um weitere Zusammenhänge zu erschließen? Im Projekt werden ja besonders de Daten des Oberschenkelmuskels untersucht (M. biceps femoris). Interessant wären ebenso die Muskulatur der Wade und des Fußes, des Rumpfes und der Schultermuskulatur. Überall dort, wo auch eine externe Krafteinwirkung wirkt. Interessant wäre auch, wie due Muskulatur des Rumpfes oder des oberen Bereiches auf Störungen im Fußbereich bzw. des unteren Bereiches reagiert. super Frage um selber weiterzudenken, sich die Ziele der Untersuchung noch einmal klarer zu machen.
fm/quant_fometh/ws14/qfm1421.txt · Zuletzt geändert: 28.11.2022 00:58 von 127.0.0.1


Warning: Undefined variable $orig_id in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/openas/action.php on line 232