User Interfaces für Sehbehinderte - gegen die Vergrauung der Welt

11. November 2013

Als das iPad von Apple vor drei Jahren auf den Markt kam, waren viele Sehbehinderte begeistert: plötzlich gab es ein leichtes, mobiles Gerät mit großem, kontrastreichen Display und vielen nützlichen Apps, das mit iOS viele Anpassungsmöglichkeiten bietet. Die Begeisterung hat sich mit dem Update auf das neue Betriebssystem iOS 7 jäh abgekühlt.

Die anfänglich gute Bedienbarkeit von Apple-Geräten ist mit den iOS-7-Bedienoberflächen für Sehbehinderte sehr eingeschränkt worden. Während vorwiegend blinde Nutzer sich nun sogar über Handschrifterkennung unter dem Screenreader VoiceOver freuen können, schauen Sehbehinderte verärgert auf graue Flächen und kontrastarme Steuerelemente.

Wieder einmal haben die Sehbehinderten keinen Schutz guter Bedienkonzepte durch Normen oder verbindliche Designvorgaben.

Das neue "flat design"

Das Ergebnis des neuen iOS-Designs sind minimale Schwarz-Weiß- und Farbkontraste. iOS 7 zeigt weiße Schrift auf grauem Hintergrund, dünne schwarzstrichige Icons auf Grau, das farbkontrastarme Blau auf weißem Hintergrund und oszillierende dünnste Schrift beim Entsperren. Die Liste ließe sich lange fortsetzen.

Startbildschirme von iOS 6 und iOS 7

Abb. 1: Links der Startbildschirm unter iOS 6, rechts das neue "flat design" in iOS 7.

Die Änderungen in iOS 7 folgen einer modernistischen Design-Sprache, die für die Icons der Apps und der Schaltflächen einfache geometrische Flächen und Verläufe und eine sehr reduzierte Symbolik nutzt sowie auf Schatten und jegliche Anmutung von Dreidimensionalität verzichtet. Viele Schaltflächen sind ihres Rahmens beraubt oder auf geometrische Grundformen reduziert. Das nennt sich "flat design". Ein ähnlicher Ansatz findet sich in anderer Form auch in den konkurrierenden Betriebssystemen Android und Windows 8 bzw. Windows Phone. Alle Interfaces, so scheint es, werden "flach".

Skeuomorphismus

Für sehbehinderte Nutzer ist die Verschlechterung beim Übergang von iOS 6 zu iOS 7 deutlich, und so stellt sich die Frage, was Apples "altes" iOS denn so sehbehindertenfreundlich gemacht hat. Um dies zu verstehen, lohnt sich ein näherer Blick auf die nun abgelöste Design-Sprache, die unter dem Schlagwort Skeuomorphismus läuft - was bedeutet, dass ein Interface das Material oder die Form eines älteren bekannten, bereits vertrauten Gegenstandes nachahmt. Beim iOS 6 Zeitungskiosk gab es zum Beispiel Regale im Holz-Look, die Notizen-App sah wie ein Notizbock mit Lederumschlag und die Kalender-App wie ein Abreißkalender aus. Außerdem waren die Schaltflächen in mehrfachem Sinne hervorgehoben: neben der erkennbaren Symbolik vertrauter Gegenstände waren die Icons kontrastreich und durch einen dunklen Schatten auch um ihre Beschriftung herum klar vom Hintergrund abgehoben.

Dieser skeuomorphe Ansatz wird nun als primitiv, einfallslos und sogar als verwirrend abgetan. Andererseits stoßen Apples Neuerungen auch auf deutliche Kritik. Der bekannte Typograf Erik Spiekermann kritisiert: "Auf jeden Fall wurde die Typografie von Designern gemacht, die die Grundzüge der Lesbarkeit nicht kennen (…) als hätte es ein 19-jähriger Studienanfänger gemacht" (Page Online 19.06.2013).

Forschungsgebiete, die uns weiterhelfen

Wer verstehen will, warum die alte iOS 6 Oberfläche so gut funktioniert hat, stößt auf die Gestaltwahrnehmung, eine traditionsreiche, in Deutschland wurzelnde Wissenschaft, die heute im Bereich der Hirnforschung weiter entwickelt wird. Die Gestaltwahrnehmung erklärt zum Beispiel, warum man einen Schlüsselbund auf einem Tisch unmittelbar erkennt. Diese Frage stellt sich ähnlich für Schaltflächen auf kleinen Bildschirmen. Was macht Icons und andere Bedienelemente schnell erkennbar und unterscheidbar? Hier gibt es eine Reihe von Forschungsgebieten, die uns nützliche Hinweise geben können und die ich im Folgenden kurz behandle: Visual literacy, Signalling and way-finding, die Affordances der Wahrnehmungspsychologie und die Leseforschung.

Visual literacy

Visual literacy lässt sich mit "Visuelle Kompetenz" oder "Deutungsfähgkeit" übersetzen. In diesem Fachgebiet wird untersucht, wie wir die sichtbare Welt um uns herum wahrnehmen und darauf reagieren, wie wir erlernen, was sich hinter visuellen Zeichen verbirgt. In manchen Fällen sind solche Zeichen stark abstrahiert: wir berühren ein kleines Dreieck und es ertönt Musik; wir berühren ein Quadrat und die Musik verstummt. In anderen Fällen nutzen Zeichen Metaphern aus der Alltagswelt, etwa beim Warenkorb-Symbol, das meine elektronische Bestellliste meint, oder beim Glockensymbol, das für die Funktion zur Einstellung meiner Weck-Zeit steht. Solche Zeichen erscheinen oft eingebettet in komplexe Beziehungen, die gar nicht mehr wahrgenommen werden müssen (die Glocke steht für den Klingelton und dieser für die Weckfunktion). Ganz wie wir beim Lesen nicht mehr einzelne Buchstaben und Wörter wahrnehmen, verinnerlichen wir ein komplexes visuelles Inventar von Zeichen, die uns "in Fleisch und Blut" übergehen und deshalb nicht länger unsere Interpretation herausfordern. Je mehr eine Design-Sprache auf konventionelle, gemeinhin bekannte Zeichen setzt, desto geringer der Interpretationsaufwand.

Signalling and way-finding

Über den Bereich der taktilen User Interfaces und die sogenannte User Experience gibt es bereits unzählige Artikel und Bücher. Seltsamerweise wird dort selten behandelt, wie man die Bedeutung der Nutzeroberfläche optisch und darauf aufbauend inhaltlich erschließen kann. Die Erkenntnisse aus dem Bereich "Signalling and way-finding" (zu Deutsch etwa: Signalgebung und Orientierung) werden hier nicht genutzt. Ähnlich wie bei der Beschilderung im Straßenverkehr müssen Nutzer ein Schild (hier: eine Schaltfläche) erst einmal überhaupt bemerken und erkennen können. Das verlangt eine erwartete Positionierung, ausreichende Größe von Zeichen und Schrift und starke Kontraste. Dann sollte die Entschlüsselung des Inhalts durch ein einfaches gut lernbares Repertoire mit klaren Regeln erleichtert werden. Während Aussehen und Bedeutung eines Stopp-Schildes international vereinheitlicht sind, fehlt diese Selbstverständlichkeit in den neuen Touch-Oberflächen. Noch dazu verfolgt hier jedes Betriebssystem einen unterschiedlichen Ansatz. Was bedeutet Zurück, OK, Schließen, Abbrechen? Habe ich eine Zurück-Taste in der App, im Browser, in einer Fußleiste des Betriebssystems oder gar als physische Taste unterhalb des Displays?

Wie die "Beschilderung" in den neuen Touch-Oberflächen funktioniert, müssen wir erst lernen. Dazu kommt noch, wie wir das mit Berührungen und Gesten anstoßen müssen. Auch hier gibt es zwar Gemeinsamkeiten zwischen den Betriebssystemen, aber auch vielfältige Unterschiede.

Zu dem komplexen Repertoire aus Tippen, Doppeltippen, Halten, Spreizen, Drehen, Wischen, Doppelfinger-Wischen usw. werden in Zukunft noch die NUI, die Natural User Interfaces, kommen. Dann können wir mit kleinen Gesten oder dem gesamten Körper, mit den Augen, der Sprache oder mit Gehirnströmen ein iPad oder Ähnliches steuern.

Affordances

Das dritte nützliche Forschungsgebiet, das wir hier erwähnen, ist das der "affordances" – ein weiteres Fremdwort, das mit "Angebotscharakter" nur unbeholfen übersetzt ist. Das Konzept stammt ursprünglich aus der visuellen Wahrnehmungstheorie von James J. Gibson und ist u.a. von Donald Norman auf das Design übertragen worden. Gut gestaltete Dinge sollen uns "sagen", was sie können. Ein guter Griff zum Beispiel lädt zum Greifen ein, er sagt uns in seiner Form, wie wir ihn fassen, drehen oder ziehen können. Häufig geht es uns aber bei Bedienoberflächen stattdessen ähnlich wie mit der Warmwasserregulierung der Dusche im Hotelzimmer.

Ein schönes Beispiel für Affordance ist der iOS-Schieberegler zur Einstellung der Bildschirmhelligkeit.

Schieberegler in iOS 6 und iOS 7

Abb. 2: Schieberegler im Vergleich: Links iOS 6, rechts die verflachte Version in iOS 7.

Der Vergleich von iOS 6 und iOS 7 zeigt, dass lediglich die Grundform des Schiebereglers gleich geblieben ist. Im neuen Design ist die Schiebefuge nicht mehr vom Schiebeknopf abgesetzt. Weder Knopf noch Fuge sind durch Schattierung modelliert, die Fuge ist ein bloßer Strich und der Knopf ein weißes Rund – die "Greifbarkeit" ist verschwunden.

Selbst in den schlauen Büchern zu "affordances" spielt die optische Erkennbarkeit, die Interpretierbarkeit und mögliche Folgenabschätzung von Bedienelementen kaum eine Rolle.

Leseforschung

Bei der Leseforschung geht es nicht nur um Lesekompetenz und die didaktische Aufbereitung von Inhalten. Man macht man sich auch Gedanken über Faktoren wie Schriftgröße, Schrifttypen oder Kontraste und untersucht, wie diese die Aufnahme von Informationen beeinflussen.

Was das Erkennen ikonografischer Zeichen angeht, gibt es leider nach meiner Erfahrung noch nichts - und für Sehbehinderte noch weniger. Wenn überhaupt, herrscht die Meinung vor, groß, bunt und dick hilft Sehbehinderten. Nicht ganz verkehrt, aber zu grob.

Ein paar Lichtblicke

Immerhin hat sich mit iOS 7 bei der Textdarstellung mit "dynamic text" Erfreuliches getan. Damit kann man Text in Apps vergrößert darstellen, wenn der Entwickler/-in das vorsieht. Oder man kann Schriften fetten, immerhin.

Auch unter iOS 7 hat Apple immer noch die breiteste Anpassbarkeit für Menschen mit den verschiedensten Behinderungen. Deshalb wird es für viele mit Apple wohl weiter eine gute Zweckehe geben.

Mit relativ wenig Aufwand ließe sich die Bedienbarkeit von iOS 7 für Sehbehinderte wieder verbessern, z.B. mit Hinterlegung der Icons und Bedienelemente, der Verwendung vom mehreren Farben, dem Eindruck von Dreidimensionalität oder ganz allgemein einer kontrastreichen Bedienoberfläche als Wahlmöglichkeit für Sehbehinderte.

Konsequenzen

Was wir nach meiner Einschätzung brauchen, ist die Einbeziehung der Bedürfnisse Sehbehinderter in die Fachgebiete User Interface Design und User Experience. Dazu bräuchten wir interessierte Universitäten, die im Bereich HCI - Human Computer Interface - forschen und sich dieser Fragestellung annehmen.

Und natürlich ein kompetentes Auftreten unserer Betroffenenverbände. In der DIN-Kommission zur Lesbarkeit von Schriften sagte mir ein sehr bekannter Erfinder aus dem Grafik-Design zwar etwas väterlich, bestimmt und deutlich: Wenn Sie (als Betroffenenvertreter) die Bedürfnisse nicht nachvollziehbar artikulieren, wird sich nichts tun.

Um mit kompetenten Fachleuten reden zu können, kann man nicht aus der Hüfte schießen. Dazu brauchen wir selbst kompetente Beratung.

Wir haben heute eine immer breiter werdende Segmentierung der Bedienoberflächen mit Apple iOS, mit Windows, mit Android (mit den Untergruppen Amazon, Samsung, HTC, Sony, usw.) Und immer wieder taucht Neues auf wie Ubuntu. Dazu treten vielfältigste Geräteformen wie Smartphones, Tablets, Phablets, Mischformen von Notebooks, tragbare Kleincomputer im Uhrengröße.

Nicht nur der (seh-)behinderte Konsument ist dadurch wohl überfordert. Irgendwann wird es hier zu Standards für einfachere Bedienbarkeit kommen müssen. Diese sollten wir fordern und mitgestalten. Davon werden auch Menschen mit Legasthenie, Alterssichtigkeit und alle ganz "normalen" Menschen profitieren.

Autor: Heinz Mehrlich (@MehrlichHeinz)

Kommentare

Kommentar von Clemens Rüttenauer |

Einen tiefen Dank, Heinz Mehrlich, für die Beleuchtung dieses Themas. Eines Themas, das ganz plötzlich eine Aktualität bekommen hat, die sich keiner von uns gewünscht hätte. Die einschneidenden Veränderungen/Verschlechterungen in IOS7 zeigen, auf welch tönernen Füßen unsere Hoffnungen ruhen, normale Alltags-Hochtechnik – also nicht erst spezielle Hilfsmitteltechnik – könnte allein schon ausreichen, unser Handikap auszugleichen.
Ich wusste schon immer, dass Sehen und Erkennen zwei unterschiedliche Dinge sind. Ich erkenne Wörter, nicht weil ich die einzelnen Buchstaben lesen kann, sondern weil ich das Wortbild erkenne. Ich erkenne Icons (vor allem am PC), nicht weil ich erkenne, was sie darstellen, sondern weil sie einen eindeutigen Widererkennungswert besitzen, oder weil ich mir ihre Position eingeprägt habe. Was ich nicht wusste ist die Tatsache, dass diese Vorgänge wissenschaftlich schon so gut erforscht sind und dass es für die verschiedenen Phänomene bereits derartig griffige Bezeichnungen gibt.
Die Haltung des Grafikers, dessen Worte sie mit „etwas väterlich, bestimmt und deutlich“ charakterisieren, empfinde ich eher als menschenverachtend arrogant. Kann er wirklich glauben, „Flat Design“ wäre eine Lösung, weil vor der Einführung keiner dagegen protestiert hat? Wir sollen also selbst schuld sein? Die Anforderungen an Lesbarkeit sind doch längst bekannt, wie Ihre Ausführungen zeigen. Nebenbei Lesbarkeit ist auch für normal Sehende kein Nachteil – im Gegenteil.
Viele stellen sich die Frage, wie konnte Apple das passieren? Es ist zwar die falsche Frage, aber beantwortet ist sie schnell. Das iPhone und das iPad sind mobile Endgeräte mit einem schier unerschöpflichen Nutzungspotential, aber es sind eben keine speziellen Hilfsmittel für Sehbehinderte. Das möchte ich an einem Beispiel verdeutlichen: Ein Personenaufzug ist etwas sehr Hilfreiches. Auch ein Blinder kann einen vertrauten Aufzug mit tastbaren Schaltern bedienen – er kann damit jede gewünschte Etage erreichen, ohne fremde Hilfe. Trotzdem ist der Aufzug deshalb kein Blindenhilfsmittel. Der Hersteller kann von heute auf morgen die tastbaren Schalter gegen einen Touchscreen (natürlich ohne VoiceOver) austauschen – und aus der Traum! Genau das – wenn auch nicht ganz so krass – ist jetzt den Sehbehinderten mit dem IOS7 passiert. Die Design-Entwickler mussten auf Sehbehinderte keine Rücksicht nehmen, denn diese sind keine Zielgruppe. Das Ziel heißt: was Neues, was Modernes, was Schickes, was Innovatives, was Besonderes. Aber doch bitte nicht was für Sehbehinderte, das wäre ja peinlich! So’ne Art Senioren-Handy – nein danke! Wobei Lesbarkeit eben nicht gleichbedeutend ist mit „Senioren- Look“. Es sind die kleinen Unterschiede, die eine große Wirkung entfalten.
VO-Nutzer sind nochmal mit einem blauen Auge davongekommen. Von VO merkt der Normal-User nichts, also störten sich auch die neuen Designer nicht daran. VO hakte zwar an einigen Stellen, aber das wird wohl behoben – oder ist bereits behoben, während das Design flach bleibt (alles Andere wäre ja ein Fehlereingeständnis, doch Apple macht keine Fehler).
Wie gesagt, die Frage war falsch gestellt, wobei meine Antwort auf die richtige Frage, die erste Frage gleich mit beantwortet – das macht den Charme dieser Antwort aus. Die richtige Frage ist: Warum bieten Apple-Geräte einen barrierefreien Zugang für Blinde und – eingeschränkt – auch für Sehbehinderte? Warum gibt es VoiceOver?
VO kam erstmals mit dem Betriebssystem OS 10.4 Tiger – das war 2005. Eine deutsche Stimme wurde erst ab OS 10.7 Lion 2011 mitgeliefert. Zu Mobilen Geräten heißt es bei Wikipedia:
„Seit 11. März 2009 werden unter dem Namen auch Sprachausgabefunktionen für den tragbaren Musikabspieler (Portable Media Player) iPod Shuffle vermarktet. VoiceOver ist außerdem seit der 4. Generation des iPod nano, ebenso bei der aktuellen Generation des iPhone ab 3GS sowie auf den Modellen des iPod touch ab der 4. Generation nutzbar. Auch auf dem iPad ist VoiceOver verfügbar.“
In dem Wikipediaartikel stehen Sehbehinderte und Blinde undifferenziert nebeneinander. Das ist falsch. Der Schwerpunkt der Bedienungshilfen liegt eindeutig beim Screenreader, also bei den Blinden. Zwar gibt es Zoom, das ist nicht schlecht - würde ich mir auch für Windows wünschen, aber mit dem Funktionsumfang einer Spezialsoftware wie ZoomText lässt sich Zoom nicht vergleichen. Auch das Vorlesen von Texten entspricht nicht dem, was ich von einem Vorlesesystem erwarte. Mir fehlt ein skalierbares Fenster, in dem der Text in einstellbarer Größe und Farbe beim Vorlesen durchläuft. In den Windows Vorleseanwendungen ist das Standard – aber natürlich nicht bei Screenreadern. Was den Screenreader anbelangt, braucht VO dagegen den Vergleich mit Windows-Screenreadern nicht zu scheuen.
Aber was gab den Anstoß, VoiceOver zu entwickeln und auch noch ohne Mehrkosten im Basis-System zur Verfügung zu stellen? Um Apple und Steve Jobs ranken sich – vor allem nach seinem Tod – viele Legenden. Stevie Wonder äußert in einem Interview anlässlich des Todes von Steve Jobs die Befürchtung, die Menschen würden nun über alles reden, nur nicht darüber, wie sehr er mit seinen technischen Entwicklungen Blinden und Behinderten geholfen habe. Wörtlich sagt er: „He has affected not just my world, but the world of millions of people who without that technology would not be able to discover the world.“ Larry Brilliant, ein amerikanischer Arzt, Epidemiologe, Technologe, Autor, und gegenwärtiger Präsident des Skoll Global Threats Fund, dessen Wege sich schon früh mit denen von Steve Jobs kreuzten, berichtet überzeugend, wie aus einem jungen 19-jährigen, wahrheitssuchenden Indienreisenden im Hippie-Look ein philanthroper, kreativer Pragmatiker wurde, der sich vornahm, die Folgen von Blindheit zu bekämpfen.
In Indien lernt er weise Männer einerseits und Armut, Krankheit und unvorstellbares Elend andererseits kennen. Als Larrry Brllliant 1980 die Seva Foundation gründet, ist Steve mit der ersten größeren Spende zur Errichtung einer Augenklinik in Indien dabei. Er blieb ständiger Berater von Seva, auch als längst Apple seine meiste Zeit beanspruchte.
Aus dieser Schilderung wird klar, die Bekämpfung von Blindheit, war zu Steve Jobs‘ persönlichem Anliegen geworden. Daraus erwuchs die Idee, seine Computer auch Blinden zugänglich zu machen. Von der ersten Spende für Seva bis zur ersten Freigabe von VoiceOver dauerte es noch 25 Jahre. Aber die Idee ließ ihn nicht mehr los. Ein Bedienkonzept auch für die neuen, mobilen Geräte mit Touchscreen zu entwickeln, muss er als Herausforderung empfunden haben. Er hat es genial gelöst.
Also der Schlüssel liegt in der Person von Steve Jobs selbst – mitfühlender Philanthrop und gleichzeitig kreativer Pragmatiker- eine glückliche Paarung. Was bedeutet nun der Tod von Steve Jobs für die Apple Produkte und deren Zugänglichkeit? Könnte es sein, dass der Elan dahin ist? Stevie Wonder wünscht in dem oben zitierten Interview, dass das fortgesetzt werde, was Steve Jobs begonnen habe. War das schon eine Vorahnung? Hätte Steve Jobs das flache Design durchgehen lassen? Das bleibt Spekulation. Dass Apple den Anspruch der Zugänglichkeit aufgibt, halte ich für ausgeschlossen, aber kaufmännische Überlegungen könnten künftig hier mit hineinspielen. Für den Kunden ist VO heute umsonst. Für Apple ist es nicht umsonst, die Entwicklung kostet Geld. Wenn die Margen kleiner und die Aktionäre ungeduldig werden – wer weiß. Vielleicht wird VO irgendwann kostenpflichtig.
In der Mac Welt tut sich etwas, was wohl niemand vorhergesehen hat: Seit 2013 gibt es ein ZoomText für Mac. Einerseits logisch, denn Sehbehinderte werden am Mac ja wenig unterstützt. Aber sehr bemerkenswert, dass nicht Apple die se Lücke schließt, sondern dass dazu ein Fremdanbieter gewonnen wurde, der nicht gerade als preisgünstig gilt. Fiel diese Entscheidung noch zu Steve´s Zeiten oder erst danach?´

Soeben (09.12.2013) erreicht mich die folgende Meldung:
„OS 7 Beta bringt eine neue Bedienungshilfe mit, die das Steuern des iOS-Gerätes per Kopfbewegung ermöglicht. In den Bedienungshilfen von iOS 7 findet sich eine neue alternative Bedienmethode. Die “Schaltersteuerung” ermöglicht die Benutzung von iPhone, iPod touch und iPad per Kopfbewegung. Hierfür überwacht die Frontkamera die Kopfbewegung des Nutzers.“

Nur zu schade, dass „Lesbarkeit“ nicht genug Stoff für eine Schlagzeile hergibt.
Cleemns

Einen Kommentar schreiben