Wie Menschen mit Sehverlust sich nähernde Fahrzeuge einschätzen

Die Studie eines mul­ti­dis­zi­pli­nären inter­na­ti­o­na­len Teams zeigt, dass sich Menschen mit alters­be­ding­ter Makula­degeneration (AMD) beim Einschätzen von her­an­fah­ren­den Fahrzeugen sowohl auf ihr Sehvermögen als auch auf ihr Gehör verlassen.

Patricia DeLucia, Professorin für Psychologie an der Rice University, Houston, USA, beschäftigt sich in ihrer Forschung seit Jahrzehnten mit der Frage, wie Menschen drohende Kollisionen einschätzen. Ihr wis­sen­schaft­li­cher Fokus richtet sich dabei auf die Kol­li­si­ons­wahr­neh­mung von Menschen mit Seh­behinder­ungen, insbesondere bei AMD.

Virtual Reality zur visuellen und auditiven Simulationen

Eine in der Fach­zeit­schrift „PLOS One“ ver­öf­fent­lichte Studie nutzte ein Virtual-Reality-System, um zu untersuchen, wie Erwachsene mit und ohne AMD die Annäherung eines Fahrzeuges einschätzen. Das System basiert auf einer Entwicklung von Daniel Oberfeld von der Johannes-Gutenberg-Universität Mainz.

Die Technik kombinierte visuelle Simulationen mit realistischen Fahr­ge­räu­schen. Die Stu­dien­teil­neh­mer nahmen das Fahrzeug visuell, auditiv oder kombiniert wahr und gaben per Knopfdruck an, wann es ihren Standort erreichen würde.

„Wir wollten verstehen, ob Menschen mit Seh­behinder­ungen sich stärker auf Geräusche verlassen und ob das Vorhandensein von sowohl Seh- als auch Hörvermögen einen Vorteil gegenüber dem alleinigen Sehvermögen bietet“, erklärte DeLucia. „Es gibt nur wenige Studien, die sich speziell mit der Einschätzung von Kollisionen bei Menschen mit Seh­behinder­ungen befassen. Dabei hängen Aufgaben wie das Überqueren einer Straße oder das Bewegen in belebten Umgebungen von dieser Fähigkeit ab.“

Menschen mit AMD zeigten ähnliche Leistungen wie Normalsehende

Die Forscher gingen davon aus, dass Menschen mit AMD trotz ein­ge­schränk­ter zentraler Sehkraft weiterhin auf ihr verbleibendes Sehvermögen zurück­grei­fen würden. „Über­ra­schen­der­weise zeigten Menschen mit AMD in beiden Augen eine sehr ähnliche Leistung wie Menschen mit normalem Sehvermögen bei der Einschätzung, wann das Fahrzeug sie erreichen würde“, berichtete DeLucia. „Sie erzielten vergleichbare Leistungen, legten jedoch mehr Wert auf die weniger zuver­läs­si­gen Hinweise.“

Selbst bei einer Beein­träch­ti­gung des zentralen Sehvermögens verließen sich die Teilnehmer den Wis­sen­schaft­lern zufolge weiterhin auf visuelle Informationen. „Menschen mit Seh­be­ein­träch­ti­gun­gen nutzten nicht nur auditive Informationen. Sie nutzten sowohl das Sehen als auch das Hören“, so DeLucia.

Wahr­neh­mungs­ver­zer­run­gen nach alleinigen Seh- oder Hör­in­for­ma­ti­o­nen

Wenn jedoch nur Seh- oder Hör­in­for­ma­ti­o­nen präsentiert wurden, zeigten beide Gruppen Wahr­neh­mungs­ver­zer­run­gen. Diese wurden von DeLucia und Oberfeld bereits in früheren Studien beschrieben. Dazu gehörte, dass lautere und größere Fahrzeuge als früher ankommend eingeschätzt wurden als leisere und kleinere.

Diese „heuristischen“ Abkürzungen wurden in der AMD-Gruppe etwas häufiger beobachtet. Das hatten die Forscher aber aufgrund des ein­ge­schränk­ten Zuganges zu detaillierten visuellen Informationen erwartet. Der Effekt war den Wis­sen­schaft­lern nach jedoch gering.

„Dank unseres fort­s­chritt­li­chen audio­vi­su­el­len Simu­la­ti­ons­sys­tems und der maß­ge­schnei­der­ten Datenanalyse erhielten wir einen fast mikro­sko­pi­schen Einblick darin, wie Fußgänger akustische und visuelle Informationen nutzen, um die Ankunftszeit eines sich nähernden Fahrzeuges abzuschätzen“, sagte Oberfeld. „Dies geht über das hinaus, was wir aus früheren Studien wussten.“

Kombination von Sehen und Hören verbesserte nicht die Genauigkeit

„Dieser multimodale Vorteil trat bei keiner der beiden Gruppen auf. Das ‚Sehen und Hören‛ war nicht besser als nur das ‚Sehen‛“, so DeLucia.

DeLucia betonte, dass klinische Messungen wie die Sehschärfe nicht immer die tatsächliche Funk­ti­ons­fä­hig­keit vorhersagen. „Es gibt keine Eins-zu-eins-Beziehung zwischen dem Schweregrad einer Auge­n­er­kran­kung und der Sehschärfe oder der täglichen Funk­ti­ons­fä­hig­keit“, erklärte sie. „Einige Menschen haben bei­spiels­weise schwere Netz­haut­schäden, aber dennoch eine recht gute Sehschärfe. Dennoch haben sie Defizite bei alltäglichen Aufgaben, die Sehvermögen erfordern.“

Diese Diskrepanz könnte DeLucia zufolge erklären, warum einige AMD-Teilnehmer fast genauso gut abschnitten wie Probanden die Kon­troll­gruppe.

Das Team betont, die Ergebnisse bedeuteten nicht, dass Menschen mit Seh­be­ein­träch­ti­gun­gen sich im Stra­ßen­ver­kehr ebenso sicher bewegen könnten wie Sehende.

„Es handelte sich lediglich um VR-Simulationen von Ver­kehrs­si­tua­ti­o­nen – ein sehr einfaches Szenario mit einem Fahrzeug, das sich auf einer einspurigen Straße nähert“, erklärt DeLucia. „Wir müssen sehen, ob sich diese Ergebnisse auf komplexere Situationen übertragen lassen, zum Beispiel mit mehreren Autos, die beschleunigen oder abbremsen. Auch wäre interessant, leisere Elektro­fahr­zeuge einzubeziehen.“

DeLucia hofft, dass die Ergebnisse dazu beitragen werden, die zukünftige Arbeit in den Bereichen Mobilität, Reha­bi­li­ta­tion und Sicherheit zu steuern.

„Letztendlich möchten wir verstehen, wie Menschen mit Seh­behinder­ungen Ent­schei­dun­gen über Kollisionen treffen, die für die Sicherheit entscheidend sind, damit wir ihre Mobilität und Unab­hän­gig­keit verbessern können“, fügte sie abschließend hinzu.

Diese Arbeit wurde vom National Eye Institute der National Institutes of Health unterstützt. Der Inhalt liegt in der alleinigen Verantwortung der Autoren und gibt nicht unbedingt die offiziellen Ansichten der National Institutes of Health wieder.

Quelle: biermann-medizin.de

Datum