iOS und iPadOS 13: Das ist neu in den Bedienungshilfen

Apple veröffentlicht am 19. September die größten Updates für iOS, WatchOS, MacOS und TVOS seit langem. Auch bei den Bedienungshilfen, speziell VoiceOver, hat sich eine Menge getan. Hier ist meine Zusammenfassung für iOS und iPadOS.

Prominentere Platzierung

Die Bedienungshilfen sind in den Einstellungen jetzt auf der Hauptebene platziert. Sie sind nicht mehr unter dem Punkt „Allgemein“ vergraben, sondern direkt aus dem Hauptbildschirm, kurz unterhalb von Allgemein, zugänglich. Dies zeigt, dass diese Funktionen, die ja allen helfen, ihre iOS-Geräte für ihre Bedürfnisse anzupassen, für Apple immer wichtiger werden.

VoiceOver

Eines der größten Updates erhält in dieser Version von iOS und iPadOS 13 die Bedienungshilfe VoiceOver. Waren die Erweiterungen in Version 11 und 12 des Betriebssystems eher gering, legt Apple in iOS 13 mal wieder richtig vor und lässt die Konkurrenz weit hinter sich zurück.

Unterstützung der Wischtastatur

Die in iOS 13 neu eingeführte Eingabe durch Wischen, von Apple Path Typing genannt, wird auch von VoiceOver unterstützt. Hiermit ist die Eingabe von Text, sogar mehrsprachig, erheblich beschleunigt. Um die Eingabe einzuleiten, legt man den Finger auf den ersten Buchstaben des Wortes, das man eingeben möchte und wartet standardmäßig eine Sekunde, bis ein Ton und eine Vibration erfolgen und wischt dann in die Richtung der Buchstaben, die man eintippen möchte. Dies alles tut man, ohne den Finger anzuheben.

Um das Wort „Guten“ wie in „Guten Morgen“ zu schreiben, legt man also den Finger aufs G. Trifft man nicht sofort, den Finger einfach zum richtigen Buchstaben ziehen. Nun wartet man eine Sekunde, bis das iPhone leicht vibriert, und wischt dann schräg nach rechts oben zum u, danach gerade nach links zum t, weiter zum e und dann schräg nach rechts unten zum n. VoiceOver spricht währenddessen das, was es zu erkennen geglaubt hat. Durch Anheben des Fingers wird das Wort eingegeben.

Um ein weiteres Wort einzugeben, braucht man nun kein Leerzeichen einzugeben, sondern legt den Finger auf den ersten Buchstaben des nächsten Wortes, in unserem Beispiel also das M. Die Bewegung ist dann schräg nach rechts oben zum o, gerade nach links zum r, leicht nach unten rechts zum g, schräg hoch links zum e und wieder schräg nach rechts unten zum n.

Die Zeit, die VoiceOver warten soll, bis es das Schreiben per Wischen aktiviert, kann man unter den VoiceOver-Einstellungen im Bereich Eingeben einstellen. Der Punkt heißt „Interaktionszeit der Tastatur“.

Gesten anpassen

Eine Änderung, die viele Nutzer von Android aus TalkBack schon länger kennen, ist die Fähigkeit, die Gesten von VoiceOver anzupassen. Diese Funktion hat Apple in iOS und iPadOS 13 neu hinzugefügt. Die Funktion findet sich in den VoiceOver-Einstellungen unter dem Punkt „Befehle“.

Man bekommt nun einen Bildschirm präsentiert, in dem man entweder alle Befehle nach Kategorien durchstöbern und die aktuelle Zuordnung ansehen kann, oder man passt Berührungsgesten, Tastaturbefehle, oder Befehle während aktiver Handschrift- oder Brailleeingabe an. Es steht eine ganze Fülle von Befehlen zur Verfügung. Selbst Siri Kurzbefehle lassen sich auf VoiceOver-Gesten legen. Oder man erfindet sich Gesten für das Gehen zum Home-Bildschirm oder den App-Umschalter, wenn man die seit dem iPhone X und im iPad Pro vorhandenen Wischgesten vom Bildschirmrand nicht mag.

Dabei kann man fast alle Gesten, die mit einem bis zu fünf Fingern ausführbar sind, umbelegen. Lediglich die Geste für das einmalige und doppelte Tippen mit einem Finger, also das Vorlesen bzw. Aktivieren von Elementen, sind nicht veränderbar.

Und wenn man sich völlig vergaloppiert hat, kann man mit einem Schalter auch alle VoiceOver-Befehle auf die Standardeinstellungen zurücksetzen. Weiterhin hat Apple diesen Einrichtungsbildschirmen dankenswerterweise eine Suchfunktion spendiert, so dass man nicht durch die über 100 zur Verfügung stehenden Befehle scrollen muss, um eine Neuzuweisung vorzunehmen.

Mit dieser Erweiterung bekommt VoiceOver für iOS und iPadOS endlich das, was der Mac schon länger hat, nämlich eine sehr weitreichende Anpassbarkeit der Gesten an die eigenen Bedürfnisse. Auch die Rotorumschaltung kann man ändern, wenn man die Drehgeste nicht mag oder ausführen kann. Das ist wirklich eine sehr sinnvolle und überfällige Erweiterung.

Aktivitäten

Auch eine andere sehr sinvolle Funktion, die bisher der Mac-Version von VoiceOver vorbehalten war, kommt endlich aufs iPhone, iPad und den iPod Touch, nämlich die Aktivitäten. Man definiert hiermit einen Satz von Einstellungen für VoiceOver, z. B. die Ausführlichkeit der Satzzeichen, das Sprechtempo, eine andere Brailletabelle o. ä., und speichert sie entweder einfach als einen Satz ab, eine sogenannte Aktivität, die dann über einen neu hinzugekommenen Rotor per Hand ausgewählt werden kann. Oder man weist die Aktivität bestimmten Apps oder Kontexten zu, so dass sie immer aktiv wird, wenn die gewählten Apps aktiv sind oder der besondere Kontext vorherrscht. So ein Kontext kann z. B. Textverarbeitung, Programmierung, Konsole (also Kommandozeile), Social Media, Messaging oder Erzählung, also Vorlesen, sein.

Das Potential dieser Aktivitäten ist enorm, bedeutet es doch eine erhebliche Erleichterung täglicher Arbeitsabläufe und immer die gewünschten Einstellungen in der jeweiligen Situation. Bravo, damit macht VoiceOver nochmal viel mehr Spaß!

Für Entwickler ist die Schnittstelle zum Definieren eigener Kontexte in iOS 13 bereits freigegeben. Sie müssen einen UIAccessibilityTextualContext für ihre View setzen, damit VoiceOver die richtigen Aktivitäten laden kann. Es steht zu hoffen, dass möglichst bald viele App-Entwickler die richtigen Kontexte für ihre Apps implementieren, damit die Aktivitäten schnell überall genutzt werden können.

Haptisches Feedback und Sounds

In den Einstellungen für Audio gibt es oben einen neuen Schalter „Töne und Haptik“. Dahinter verbirgt sich nicht ein Shortcut zur gleichnamigen Option des Hauptbildschirms der Einstellungen, sondern ein eigener Bereich, in dem man das neue haptische Feedback (ab iPhone 7) und die VoiceOver-Sounds für jedes Ereignis ein- und ausschalten kann. Den abzuspielenden Sound kann man nicht anpassen, aber für jedes Ereignis separat an- oder abschalten. Auch die Intensität des haptischen Feedbacks kann eingestellt werden. Ist einem das Feedback also zu stark, kann man es runterdrehen. Standardmäßig steht es auf 100%.

Es gibt einen zentralen Umschalter für dSounds und Haptik. Man kann also auch beides getrennt komplett abschalten, wenn man dies möchte.

Neuerungen in Braille

Auch bei der Brailleunterstützung hat sich einiges getan. Zum einen kan man jetzt die Tastenentprellungsdauer einstellen. Hinter diesem sperrigen Begriff verbirgt sich schlicht die Zeitspanne, nach der auf einer Brailletastatur erfolgte Tastendrücke als ein Tastendruck für eine Brailleeingabe gewertet werden. Werden also versehentlich zwei Tasten gleichzeitig gedrückt, wird dies nicht sofort als Brailleeingabe gewertet.

Weiterhin liefert Apple jetzt auch alle Tabellen des Open-Source-Projekts Liblouis mit, das unter anderem auch die Brailleanzeige in NVDA oder Orca ermöglicht. Neben den hauseigenen Tabellen von Apple hat man jetzt also für deutsch weitere Kürzungs- und Teilkürzungstabellen zur Verfügung. Hierfür gib es eine eigene Rotoroption, mit der man die Tabellen schnell wechseln kann. Oder man bestellt für bestimmte Aktivitäten jeweils andere gewünschte Tabellen ein. In einer App, von der man weiß, dass man nur auf englisch kommunziziert, kann man hier also eine englische Tabele zur Eingabe vorgeben und so sofort in englischer Kurzschrift o. ä. los schreiben.

Erkennung von Daten

Eine weitere Neuerung in VoiceOver ist die Erkennung von Datensätzen, wie sie z. B. in Diagrammen verwendet werden. Ist ein Diagramm entsprechend den Richtlinien codiert, kann VoiceOver den Verlauf und die Art des Diagramms (Kurve, Balken o. ä.) beschreiben, eine Tonfolge, die den Verlauf repräsentiert, abspielen, oder man kann durch doppeltippen und halten und dann über den Bildschirm bewegen die Grafik mit Tönen erfühlen. Die Höhe der Töne zeigt den Kurvenausschlag oder ähnliche Charakteristika an. Der Rotor bekommt hier kontextbezogen einen Satz neuer Optionen hinzu, mit dem man die Ausgabeart oder den Beschreibungstyp wählen und durch Doppeltippen auslösen kann.

Beispiele für solche Grafiken sind zum einen die grafische Darstellung der Batterienutzung in den Einstellungen und zum anderen der Verlauf einer Aktie oder eines Aktienindexes in der Aktien-App. Auch in der Health-App sollen die Diagramme für die Gesundheit auch schon zugänglich sein, da habe ich allerdings bisher keines finden können.

Diese Erweiterung ist jedenfalls mal wieder ein zeichen dafür, mit wie viel Liebe zum Detail Apple hier agiert. Dass diese Grafen auch für Blinde interessant sein können, würde so manch anderen gar nicht erst in den Sinn kommen. Die Erfahrung erinnert mich sehr daran, wie spannend ich es fand, in iOS 6.0 zum ersten mal die Karten quasi fühlbar unter dem Finger zu haben.

Automatische Erkennung von Bildern

In iOS 13 erkennt VoiceOver Bilder automatisch, wenn man zu ihnen navigiert, ohne dass man erst mit drei Fingern einmal tippen muss, um die Bilderkennung anzuwerfen. Dies klappt auch in Safari auf Webseiten und bei manchen unbeschrifteten Buttons, die eine Grafik als Beschriftung haben. Dies entbindet natürlich die Entwickler nicht von der Pflicht, ihre Apps ordentlich zugänglich zu machen, erleichtert aber die Bedienung in solchen Apps, wo diese Entwickler das eben noch nicht getan haben.

Neuerungen fürs iPad

Apple hat iOS fürs iPad so aufgebohrt, dass diese Betriebssystemvariante dies jetzt auch durch einen eigenen Namen kenntlich macht, nämlich iPadOS. Apple hat angekündigt, dass dieses am 30.09. in Version 13.1 erstmalig für alle erscheinen wird, also losgelöst vom iPhone und iPod Touch, welche die Version 13.0 von iOS bereits am 19.09. bekommen und am 30.09. die Version 13.1 als Update erhalten werden.

Neben den Neuerungen für alle, wie einen Safari, der sich wie ein Desktop-Browser verhält, erweiterte Tastatursteuerung, die neuartige Tastatur zur Eingabe durch Wischen, die man auch noch modifizieren kann, damit man sie auch mit einer Hand bedienen kann, und dem Fenster-Management, bringt das iPadOS auch in VoiceOver Unterstützung für all diese Funktionen mit. So ist es mit den bekannten Vorgehensweisen, die ich schon anderweitig beschrieben habe, jetzt natürlich auch möglich, dieselbe App in mehreren Fenstern zu öffnen. Auch die Spaces, also Sätze von zwei miteinander dargestellten Apps oder App-Fenstern, sind über den App-Umschalter zugänglich. Auch die Spaces schließt man wie jede andere App, indem man mit drei Fingern nach oben wischt oder die Schließen-Aktion aus dem Rotor wählt. Ein kleines Manko besteht allerdings darin, dass bei zwei geöffneten Fenstern derselben Anwendung die Aktionen des Trenners nicht ansagen, welches der beiden Fenster man jetzt erweitern oder verkleinern würde, wenn man diese Aktion auslöst.

Eine Änderung betrifft das Dock, wenn man multitasken möchte: Man wischt jetzt wie beim iPhone X aufwärts mit einem Finger vom unteren Rand, bis man den zweiten von drei Tönen hört und wischt dann wieder leicht nach unten, um das Dock einzublenden. Das ganz leichte Wischen vom unteren Rand mit zwei Fingern funktioniert zumindest auf meinem iPad Air 3 nicht mehr. Auch der Sound zum Anzeigen und Verstecken des Docks hat sich von dem zischenden Sound in einen auf- oder absteigenden „Whopp“-Sound geändert.

Der Safari und VoiceOver arbeiten in iOS und iPadOS 13 zuverlässiger zusammen, Apple hat jede Menge weiterer Standards-Unterstützung für dynamische Webanwendungen hinzugefügt.

Sprachsteuerung

Eine große Neuerung in iOS, iPadOS und MacOS ist die Steuerung des Systems per Sprache. Diese Funktion ist zu diesem Zeitpunkt noch nicht auf deutsch verfügbar, es steht aber zu erwarten, dass die Unterstützung anderer Sprachen außer Englisch nicht lange auf sich warten lässt. So ist es möglich, sich durch sämtliche Elemente zu navigieren, sie zu fokusieren und aktivieren. Man kann in den Einstellungen das Vokabular anpassen, die Befehle finetunen, einstelen, wie das Feedback erfolgen soll (ja, auch mit eingeschaltetem VoiceOver ist eine Steuerung per Sprache möglich) usw. Die Schnittstellen, die die Sprachsteuerung nutzt, sind dieselben, die auch VoiceOver und die Schaltersteuerung nutzen. Ein richtiges Zugänglichmachen von Apps ermöglicht also automatisch die Benutzung durch eine weitere Bedienungshilfe. Eine Demo hiervon hat Apple auf der 2019er Entwicklerkonferenz WWDC gezeigt.

Englischsprachige Demo der Sprachsteuerung von Apple

Weitere Änderungen

Es gibt weitere Änderungen in den Bedienungshilfen, die vorhandene Features weiter anpassbar machen. Da viele davon visueller Natur sind und ich deren Auswirkung nicht beurteilen kann, gehe ich nicht weiter darauf ein, sondern überlasse es der geneigten Leserschaft, diese selbst auszuprobieren.

Fazit

Apple hat nach mehreren Jahren nur kleiner inkrementeller Verbesserungen, abgesehen vom Multitasking in iOS fürs iPad, in iOS und iPadOS 13 wieder mächtig nachgelegt und einige sehr begeisternde neue Funktionen eingeführt. Hiermit wird VoiceOver zu einem immer ausgereifteren und anpassbareren Screen Reader, der in Benutzerfreundlichkeit und Variabilität seinesgleichen sucht.

Ich jedenfalls bin von diesen Änderungen sehr angetan und freue mich schon darauf zu sehen, was Entwickler mit den Aktivitäten und anderen Features an neuen Möglichkeiten schaffen werden.

Werbeanzeigen

Veröffentlicht von Marco

Jahrgang 1973, 80er-Jahre-Kind, Katzenliebhaber, verheiratet mit der besten Ehefrau von der Welt, blind, Barrierefreiheit, technikaffin

Beteilige dich an der Unterhaltung

13 Kommentare

  1. Lieber Marco!

    Vielen Dank für deine Zusammenfassung – ich hatte mir schon vorgenommen in den nächsten Tagen selber zu recherchieren was sich – v.a. in VoiceOver – mit iOS 13 ändern wird, da tauchte dein Beitrag schon wie bestellt in meinem Newsfeed auf. ^^
    Was mich noch interessiert hätte – abseits der neuen Features – ist, ob Apple auch endlich mal wieder an der Beseitigung von teils schon Jahre alten Problemen gearbeitet hat? Mich z.B. nervt es wirklich massiv dass die Navigation zwischen einzelnen Überschriften – v.A. innerhalb von Apps, aber z.t. auch auf Websites, seit mehreren Jahren nicht mehr zuverlässig funktioniert.
    Außerdem hätte ich gerne noch gewusst ob du nach dem Upgrade irgendwelche neuen Probleme festgestellt hast, die es bis iOS 13 nicht gab – manchmal passiert das ja nach einem Major-Release-Upgrade, dass VoiceOver plötzlich eine neue Macke hat die das Arbeiten erschwert bis Apple das nach 1-2 Monaten mit dem nächsten oder übernächsten Release wieder ausbügelt? Gerade wenn – so wie in dieser Version – anscheinend so massiv an der Voiceover-Basis gewerkelt wurde hab ich immer ein bisschen Angst dass dabei was kaputt ging das vorher schon gut funktioniert hat. Hast du da schon Erfahrungen gemacht?

    LG Daniel!

    Liken

    1. Hallo Daniel,

      Hm, da ich das Problem mit den Überschriften bei mir so in der Form nicht kenne, wie Du es kurz beschrieben hast, kann ich Dir auch nicht sagen, ob Dein spezielles Problem in iOS 13 behoben sein wird. Bei mir funktioniert die Überschriftennavigation zuverlässig, das tat sie aber auch schon unter iOS 12.

      Es gab zwischendurch durchaus einige Probleme, in Nachrichten z. B. mit dem Versenden von Audionachrichten, aber das waren Probleme in der UI von Nachrichten, nicht speziell VoiceOver. Das Problem wurde kürzlich behoben. Manchmal liest er bei mir eine neue Mail nicht zuverlässig, wenn ich eine oder eine Konversation archiviere oder lösche und sich die nächste öffnet. Aber das ist nicht reproduzierbar undhabe ich auch schon unter iOS 12 gesehen.

      Gravierende Probleme sind mir bisher nicht begegnet, also nicht sowas wie unter iOS 10 oder 11 vor ein paar Jahren, wo man auf einmal keine Anrufe mehr beantworten konnte o. ä.

      Liken

      1. Hallo Marco!

        Danke für deine Antwort. Das Problem mit den Überschriften, dass ich meine, betrifft vermutlich wohl alle iOS-User, somit wohl auch dich. Zumindest haben sich schon viele meiner VoiceOver-nutzenden FreundInnen darüber bei mir beschwert.
        Bei iOS 12 läßt es sich z.B. gut im Fenster Einstellungen -> Batterie nachvollziehen. Das Fenster enthält, wie du vermutlich weißt, ziemlich viele Daten über vergangene Batteriestände und den Stromverbrauch einzelner Apps, so dass es viel zu scrollen gibt. Jeder der Datensätze hat eine eigene vorangestellte Überschrift. Versuche mal, in diesem Fenster von Überschrift zu Überschrift zu navigieren – vor und zurück – und du wirst vermutlich auch das Problem haben dass das nicht zuverlässig klappt. Es kommt aber bei Leibe nicht nur in diesem Fenster vor, sondern auch in vielen anderen Apps.

        LG!

        Liken

  2. Hallo Marco, kann man denn jetzt etwas gegen den meiner Meinung nach ständig überladenen Rotor unternehmen? ICH dachte bspw. an einen eigenen Rotor für die Stimmeinstellungen oder einen eigenen Rotor für die Navigationsweise .

    Liken

    1. Nein, der Rotor ist immer noch nur ein Rotor. Die Anpassbarkeit für die verschiedenen Rotoroptionen ist aber geblieben, Du kannst also Sprechtempo oder ähnliches so aktivieren oder deaktivieren wie bisher auch. Und Du kanst Dir verschiedene einzelne Funktionen wie das Erhöhen oder Verringern des Sprechtempos auf eigene Gesten legen. Aber den Rotor in mehrere kleine aufzusplitten geht nicht.

      Liken

  3. Wie immer, sehr guter Artikel. Ergänzend wäre noch zu erwähnen, dass ab dem iPhone 7 das haptische Feedback neben den Toneffekten genutzt wird, welches sich auch abschalten lässt, ebenso wie die Stärke der Haptik und die Lautstärke der Toneffekte einstellbar ist. Einzelne Toneffekte lassen sich auch an und abschalten. Dies findet man im Audio-Menü von VoiceOver.

    Liken

    1. Stimmt, danke, das hatte ich total übersehen. Werde ich die Tage noch ergänzen. Aber bis dahin könnt ihr, die ihr die Public Beta nutzt, ja selbst schon mal auf Entdeckungsreise gehen. 😉

      Liken

  4. Hallo Marco, danke für diesen echt guten Beitrag mit den zusammen gefassten Neuerungen. Wird es möglich sein, bei den Gesten auch neue Gesten, wie die unter TalkBack zu definieren? Also z.B. in einem nach unten und links für „Zurück“ oder nach oben und links für „Homebildschirm“? Besten Gruß, Mischa.

    Liken

    1. Ja, dazu kommt heute noch ein gesonderter Eintrag. Einige der Bugs habe ich auch nachvollziehen können, und viele davon sind in iOS 13.1, zur Zeit im Status Beta 3, bereits behoben. Aber fürs erste Release 13.0 auf iPhone und iPod Touch sind einige davon tatsächlich sehr ärgerlich bzw. können eine Verzögerung des Updates rechtfertigen. iOS 13.1 soll ja schon 11 Tage später, am 30.09., erscheinen.

      Liken

Kommentar hinterlassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google Foto

Du kommentierst mit Deinem Google-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.

%d Bloggern gefällt das: