Anders lesen und lernen e.V.  Der Hörlehrbuchclub   Ritter Kunibert hilft denen, die nicht lesen können

Eine sagt's der anderen

WiB

Vorlesen

News

30. November 2017

Virtual Reality als Möglichkeit, Lese-Rechtschreib-Schwäche frühzeitig zu erkennen und zu behandeln

Ziel des Projekts „SCESAM“, das mit der Unterstützung von IDeA – einem interdisziplinären Forschungszentrum – initiiert wurde, ist es, eventuelle kognitive Defizite wie eine Lese-Rechtschreib-Schwäche frühzeitig zu erkennen und zu behandeln.

Dr. Anne Hardy, Public Relations und Kommunikation der Goethe-Universität Frankfurt am Main, berichtet im Informationsdienst Wissenschaft über das Virtual Reality-Labor der Psychologin Prof. Melissa Lê-Hoa Võ:

„Wenn wir einen bestimmten Gegenstand in einer Szene suchen, scheinen wir genaue Vorstellungen darüber entwickelt zu haben, welche Objekte wir wo suchen und finden müssen“, erklärt Melissa Võ. Bei der Erforschung dieser natürlichen Szenen interessiert sie insbesondere, wie wir unsere Umgebung wahrnehmen. Bei welchen Gegebenheiten merken wir besonders auf? Und an was würden wir uns später erinnern? Um das herauszufinden, setzt die Psychologin in ihrem Labor neben Hirnpotenzialmessungen auch Eye-Tracking und Virtual Reality Szenen ein.

„Mit Eye-Tracking messen wir, welche Teile eines Bildes vom Betrachter als interessant oder wichtig befunden werden, wie schnell der Blick auf bestimmte Objekte in Szenen fällt und wie lange der Blick dort verweilt“, erklärt Dr. Dejan Draschkow aus der Arbeitsgruppe von Võ. Wegen der engen Beziehung von Augenbewegung und kognitiven Prozessen ist das Eye-Tracking von großer Bedeutung. Die videobasierten Systeme, die die Forscher verwenden, erfassen die Augenbewegungen mithilfe einer Kamera. Sowohl kopfgetragene, brillenähnliche Systeme kommen zum Einsatz als auch Remote-Eye-Tracker, die sich mit einer Kamera und Infrarot-LEDs im Computermonitor befinden. Mit dem mobilen System können sich die Versuchspersonen im Raum bewegen, Gegenstände suchen und mit ihnen interagieren.

Mit dem Virtual Reality-Headset wird über den Computer eine virtuelle 3-D-Welt simuliert, durch die sich der Proband bewegt. Mit simulierten Umgebungen wie einer italienischen Piazza, in deren Mitte unterwartet braune Kisten schweben, prüfen die Forscher, ob die Ergebnisse, die sie auf zweidimensionalen Bildschirmen feststellen, auch in einer realitätsnahen, dreidimensionalen Umgebung gelten. Sie wollen Gesetzmäßigkeiten verstehen, mit deren Hilfe Menschen ihre Umwelt aufbauen und mit den Objekten in ihr interagieren.

Die Erforschung von Szenenwissen im Kindesalter ist eines der Felder, mit denen sich die Arbeitsgruppe sehr intensiv auseinandersetzt. Ziel des Projekts „SCESAM“, das mit der Unterstützung von IDeA – einem interdisziplinären Forschungszentrum – initiiert wurde, ist es, eventuelle kognitive Defizite wie eine Lese-Rechtschreib-Schwäche frühzeitig zu erkennen und zu behandeln. Mit einem mobilen Forschungslabor finden die Studien direkt vor der KiTa statt: Die Forscher zeigen den Kindern „ungrammatische“ Bilder, auf denen etwa ein Schuh anstelle eines Topfes auf dem Herd steht, und beobachten die Reaktionen mithilfe einer Eye-Tracking-Kamera. Verhält sich eines unter vielen Kindern anders, interessiert sie, ob ein Zusammenhang zur sprachlichen Entwicklung und dem Aufmerksamkeitsverhalten besteht.

Auch Bereiche der Medizin ziehen Nutzen aus den Ergebnissen, z.B. zur Erkennung von Tumoren und bei Demenz. Ebenso von Bedeutung sind die Forschungsergebnisse bei der Handgepäck-Sicherheitskontrolle an Flughäfen. Wie entscheiden Mitarbeiter, welche Gepäckstücke näher geprüft werden müssen? Warum wurde ein gefährlicher Gegenstand nicht gefunden? Hat der Kontrolleur nicht auf diesen Bereich geschaut? Oder hat er darauf geschaut, diesen Teil aber nicht für wichtig erachtet?

zurück

Datenschutzeinstellungen

Diese Webseite nutzt Cookies und tauscht Daten mit Partnern aus. Mit der weiteren Nutzung wird dazu eine Einwilligung erteilt. Weitere Informationen und Anpassen der Einstellungen jederzeit unter Datenschutz.