Wichtiger Hinweis (16.06.2019): Aussagen zur BITV beziehen sich auf die Fassung der BITV 2.0 vor dem 21. Mai 2019. Mit der Verordnung zur Änderung der BITV 2.0 fand inzwischen eine Angleichung an die internationalen Richtlinien im Zuge der Umsetzung der EU-Richtlinie zur digitalen Barrierefreiheit statt. Aussagen zu den WCAG 2.0 gelten auch für die im Juni 2018 veröffentlichten WCAG 2.1.
Ein Aspekt der Textverständlichkeit vor allem für Screenreader-Nutzer ist die korrekte Auszeichnung der Hauptsprache und des Sprachwechsels. Während bezüglich der korrekten Auszeichnung der Hauptsprache in den verschiedenen Anforderungen Einigkeit besteht, sind die Anforderungen an die Auszeichnung von Sprachwechseln beim Vergleich von PDF/UA-1 (PDF Universal Accessibility) mit den WCAG 2.0 (Web Content Accessibility Guidelines 2.0) nicht identisch. Da auch die Barrierefreie Informationstechnik Verordnung (BITV 20) andere Anforderungen formuliert nimmt sie hier deutlich mehr Raum als in anderen Artikeln dieser Serie ein.
Hauptsprache korrekt definieren
Damit Screenreader Texte zuverlässig mit der richtigen Betonung vorlesen können muss ihnen die hauptsächlich verwendete Sprache mitgeteilt werden. Dies stellt sicher, dass in das richtige Wörterbuch geschaltet und z.B. englische Texte mit englischer Betonung, französische Texte mit französischer Betonung usw. vorgelesen werden.

Die Hauptsprache kann sowohl in HTML als auch PDF definiert werden.
Auszeichnung der Hauptsprache in den WCAG 2.0
Die korrekte Kennzeichnung der Hauptsprache ist in den WCAG 2.0 und damit auch im europäischen Standard EN 501 549 ein Erfolgskriterium der Konformitätsstufe A. Da es sich bei den WCAG 2.0 um einen technologie-unabhängigen Standard handelt ist das Erfolgskriterium für HTML und PDF gleichermaßen gültig. Es lautet:
„3.1.1 Language of page: The default human language of each Web page can be programmatically determined“
und in der deutschen Übersetzung:
„3.1.1 Sprache der Seite: Die voreingestellte menschliche Sprache jeder Webseite kann durch Software bestimmt werden.“
Nach Glossar der WCAG 2.0 – zitiert wird die deutsche autorisierte Übersetzung – handelt es sich bei „menschlicher Sprache“ um
„Eine Sprache, die gesprochen, geschrieben oder (auf visuelle oder taktile Weise) gebärdet wird, um mit Menschen zu kommunizieren.“
Auszeichnung der Hauptsprache in der BITV 2.0
Die korrespondierende Bedingung in der BITV 2.0 lautet:
„3.1.1 Sprache: Die vorherrschend verwendete natürliche Sprache jeder Webseite ist durch Programme erkennbar.“
Unklar ist, warum weder der Begriff „menschliche Sprache“ noch seine Bedeutung aus der WCAG 2.0 in die BITV 2.0 übernommen, sondern durch „natürliche Sprache“ ersetzt wurde. Laut Glossar der BITV 2.0 ist mit „natürlicher Sprache“
„eine gesprochene, geschriebene oder durch Zeichen dargestellte Sprache, die sich historisch entwickelt hat und der menschlichen Kommunikation dient“
gemeint.
Der Unterschied zu den WCAG 2.0 mag in der Praxis keine Rolle spielen. Wörtlich genommen würde das jedoch bedeuten: Für einen Text in z.B. Esperanto würde man nach WCAG 2.0 die Hauptsprache auszeichnen, denn es handelt sich um eine „menschliche Sprache“. Das gleiche Dokument – sei es HTML oder PDF – müsste nach BITV 2.0 nicht ausgezeichnet werden, denn Esperanto hat sich weder „historisch entwickelt“ noch ist es eine natürliche Sprache, sondern eine Plansprache, die durchaus der menschlichen Kommunikation dient. Plansprachen wiederum sind eine Untergruppe sogenannter „konstruierter Sprachen“ zu denen – zumindest gemäß Wikipedia – auch Schriftsysteme gerechnet werden, „die sich nicht aus anderen Systemen entwickelt haben, sondern mehr oder weniger neu erfunden wurden (…)“. Genannt werden hier „die nordamerikanischen Alphabete der Cree und Cherokee“.
Dies mag in der Praxis von untergeordneter Bedeutung oder ein Versehen sein. Es zeigt jedoch, dass Änderungen eines internationalen Standards bereits bei der Änderung von Begriffen und Definitionen mindestens zu Irritationen führen können.
Tatsächlich kann man wohl davon ausgehen, dass man auch nach BITV 2.0 die Hauptsprache für Plansprachen kennzeichnen muss, sofern ein Code dafür existiert.
Auszeichnung der Hauptsprache in PDF/UA-1
Auch PDF/UA-1 stellt bei der Kennzeichnung der hauptsächlich verwendeten Sprache auf den Begriff „natürlichen Sprache“ ab. Die Fehlerbedingung im Matterhorn-Protokoll lautet: „Die natürliche Sprache für Text im Seiteninhalt kann nicht ermittelt werden“.
Es mag auch hier ausreichend deutlich sein, dass generell die Hauptsprache eines Dokuments gemeint ist. Eindeutiger wäre jedoch gewesen, nicht den Begriff „natürliche Sprache“ zu verwenden. Hier ist allerdings weniger PDF/UA-1 das Problem, sondern dass bereits in PDF 1.7 der Begriff „natural language“ verwendet wurde.
Gehen wir aber – wie auch bei der BITV 2.0 – davon aus, dass sobald ein Sprachkürzel nach ISO 639 existiert dieses auch nach PDF/UA-1 eingesetzt werden muss.
Kompatibilität PDF/UA-1, WCAG 2.0 und BITV 2.0
Im Gegensatz zu anderen in dieser Artikelserie bisher thematisierten Aspekten der PDF-Barrierefreiheit unterscheiden sich die Anforderungen wohl nicht und sind daher kompatibel. Wobei die WCAG 2.0 hinsichtlich begrifflicher und sprachlicher Eindeutigkeit die Nase vorn hat.
Da die WCAG 2.0 mehr als drei Jahre vor PDF/UA-1 veröffentlicht wurde, kann allerdings auch festgehalten werden, dass PDF/UA-1 an dieser Stelle nichts fordert, was nicht bereits in den WCAG 2.0 enthalten ist. Auch gegenüber der BITV 2.0 – um spezifisch auf Deutschland einzugehen – bietet PDF/UA-1 nichts Neues, denn die Auszeichnung der Hauptsprache ist auch in der BITV 2.0 bereits eine Bedingung.
Der Kompatibilität bezüglich der korrekten Auszeichnung der Hauptsprache stehen gänzlich unterschiedliche Anforderungen hinsichtlich der Auszeichnung von Sprachwechseln innerhalb von Texten gegenüber.
Auszeichnung des Sprachwechsels in Texten
Auch die korrekte Auszeichnung von Sprachwechseln soll sicherstellen, dass Screenreader Wörter mit richtiger Betonung vorlesen. Sprachwechsel können sowohl in HTML als auch PDF ausgezeichnet werden; in HTML über das lang-Attribut und in PDF über den L-Entry.

In der Praxis kann man sich das jedoch nicht so vorstellen, dass nur und ausschließlich nach einer solchen Kennzeichnung Screenreader Wörter mit richtiger Betonung vorgelesen würden und vorher nicht. Weder verhalten sich die unterschiedlichen Screenreader im Vergleich zueinander identisch, noch verhält sich ein Screenreader bei jeder verwendeten Sprachausgabe gleich.
Die Theorie, dass grundsätzlich nur nach korrekter Auszeichnung von Sprachwechseln Texte verständlich(er) und nutzbarer für Screenreader-Nutzer sind, beruht eigentlich auf mehreren Thesen und zwar:
- Screenreader lesen Wörter einer anderen Sprache nicht bereits ohne explizite Auszeichnung der Sprachwechsel mit richtiger Betonung vor,
- Die Auszeichnung des Sprachwechsels ist grundsätzlich positiv und führt nicht zu anderen Nachteilen und
- Wörter einer anderen Sprache sind (nur) bei richtiger Betonung verständlich(er)
Diese Thesen lassen sich nur eingeschränkt prüfen, denn die möglichen Kombinationen von Screenreadern und Sprachausgaben sind heterogener als man oft meint. Bereits eine kleine Umfrage mit nur wenigen Teilnehmern zeigte, dass für den Screenreader NVDA drei verschiedene Sprachausgaben genannt wurden. Ein kurzer Demo-Text soll einen konkreten – wenn auch kleinen – Einblick in das Thema „Sprachwechsel und Screenreader“ geben und zwar ein Einführungstext über „Social Media“ (Download am Ende des Artikels) mit folgenden Merkmalen:
- Der Text hat 101 Wörter, davon 18 englische inkl. Eigennamen.
- Bei einem Wort wurde eine deutsche Pluralbildung verwendet („Usern“).
- Von den 18 englischen Wörtern werden vier auf Englisch und Deutsch gleich gesprochen.

Als Screenreader standen mir JAWS und NVDA zur Verfügung. Die Audio-Dateien befinden sich ebenso wie der Demo-Text jeweils für die Version ohne mit Sprachauszeichnung am Ende des Artikels unter „Downloads“ – diese als gezippte Datei. Auch flossen Ergebnisse für Nuance Vocalizer und damit für die Sprachausgabe, die für Apple Systeme verwendet wird und auch unter Windows verwendet werden kann, ein. Für den Demo-Text ohne Auszeichnung des Sprachwechsels ergibt sich folgendes Bild:
- NVDA mit „Microsoft Speech API Version 5“ und der Stimme „Microsoft Hedda – German“ las trotz fehlender Auszeichnung nur zwei der 18 englischen Wörter mit deutscher Betonung vor und zwar „Media-Sharing“ und „YouTube“.
- NVDA mit „eSpeak“ und der deutschen Stimme „Max“ las abgesehen von „Usern“ und „Twitter“ jedes Wort mit deutscher Betonung vor.
- JAWS mit Eloquence las alle Wörter mit deutscher Betonung vor – mit einer Ausnahme und zwar „YouTube“.
- Vocalizer mit der Stimme „Anna“ las sowohl unter OS X als auch unter Windows alle englischen Wörter mit richtiger Betonung vor.
Schon diese kleine Stichprobe zeigt, dass die praktische barrierefreie Wirklichkeit hier vielschichtiger ist als man meinen könnte und hat zunächst damit zu tun, ob Wörter bereits in den jeweiligen Wörterbüchern der Sprachausgaben enthalten sind.
Nach der Auszeichnung des Sprachwechsels ergab sich folgende Situation:
- Bei NVDA mit „Microsoft Speech API Version 5“ und der Stimme „Microsoft Hedda – German“ konnte ich keinen Unterschied gegenüber der nicht-ausgezeichneten Version des Textes feststellen.
- NVDA mit „eSpeak“ und der deutschen Stimme „Max“ las die ausgezeichneten Wörter nun mit englischer Betonung vor. Dabei schienen kürzere Pausen vor den ausgezeichneten Wörtern zu entstehen.
- JAWS mit der Standardstimme („Eloquence“) las nach Auszeichnung des Sprachwechsels alle englischen Begriffe mit englischer Betonung vor. Dabei kam es zu deutlich hörbaren Pausen.
- Unter Vocalizer mit der Stimme „Anna“ ergab sich unter OS X (High Sierra) kein Unterschied. Unter Windows kam es im Zusammenhang mit ausgezeichneten Wörtern zu „Kunstpausen“.
Während also bei „Microsoft Hedda – German“ und Vocalizer mit der Stimme „Anna“ allein schon deswegen kein Vorteil entstand, da die Wörter des Demo-Textes bereits im Wörterbuch enthalten sind, führte die Auszeichnung des Sprachwechsels bei Verwendung von JAWS zwar zum Erfolg (korrekte englische Aussprache), allerdings auch zu deutlichen Unterbrechungen des Leseflusses.
Dies führt zu der Frage, wie Screenreader-Nutzer diese Pausen und damit die zumindest kurzfristige Unterbrechung des Leseflusses bewerten: Toppt die korrekte Aussprache jedes anderssprachigen Wortes die Unterbrechung des Leseflusses oder toppt im konkreten Lesevorgang ein erwünschter Lesefluss die korrekte Betonung?
Diese Frage wird sich wohl aus mehreren Gründen nicht generell beantworten lassen, denn:
- Man müsste alle Screenreader-Nutzer fragen und die Befragten müssten für ableitbare, konkrete Anweisungen in Sachen Sprachwechsel die Frage gleich beantworten.
- Die Antwort kann vom Text und vom Textgenre abhängen und damit von der Anzahl nötiger Sprachwechsel-Auszeichnungen insgesamt. In Texten aus dem IT-Bereich etwa ist der Anteil englischer Wörter höher als in der Belletristik.
- Die Antwort kann von der vom Nutzer verwendeten Sprachausgabe und Stimme abhängen bzw. vom verwendeten Screenreader und angesichts der bei den Tests festgestellten Unterschiede bei Vocalizer mit der Stimme Anna evtl. auch vom Betriebssystem.
- Die Antwort könnte von einem Vorher-Nachher-Vergleich bei konkreten Dokumenten abhängen. Ein gänzlich unrealistisches und allenfalls theoretisches Szenario.
- Die Antwort kann davon abhängen, ob man sich im privaten Kontext bewegt oder im Arbeitskontext, denn möglicherweise wird auf der Arbeit – z.B. im Intranet – standardmäßig ein anderer Screenreader verwendet als privat.
Schauen wir uns zunächst an, was in den WCAG 2.0, der BITV 2.0 und in PDF/UA-1 als Anforderung definiert wird.
Auszeichnung des Sprachwechsels in den WCAG 2.0.
In den WCAG 2.0 wird die Auszeichnung des Sprachwechsels erst auf Konformitätsstufe AA gefordert. Generell sind daher alle Texte ohne Auszeichnung von Sprachwechseln konform mit Stufe A der WCAG 2.0 – natürlich nur sofern die anderen Erfolgskriterien ebenfalls erfüllt sind. Das Erfolgskriterium für die Auszeichnung des Sprachwechsels lautet:
„3.1.2 Language of Parts: The human language of each passage or phrase in the content can be programmatically determined except for proper names, technical terms, words of indeterminate language, and words or phrases that have become part of the vernacular of the immediately surrounding text. (Level AA)„
Und in der autorisierten deutschen Übersetzung:
„3.1.2 Sprache von Teilen: Die menschliche Sprache jedes Abschnitts oder jedes Satzes im Inhalt kann durch Software bestimmt werden außer bei Eigennamen, technischen Fachbegriffen, Wörtern einer unklaren Sprache und Wörtern oder Wendungen, die Teil des Jargons des direkt umliegenden Textes geworden sind. (Stufe AA)“.
Grundsätzlich stellt sich die Frage, ob einzelne Wörter ausgezeichnet werden müssen oder nur Wortgruppen. Als Problem entpuppte sich, dass versäumt wurde „Phrase“ im Glossar zu definieren. Das ist nicht nur ein rein formales Problem, sondern hat Auswirkungen auf Arbeitsprozesse und die damit verbundene investierte Zeit, auf die letztliche Konformität, auf die Evaluierung und natürlich auf Verträge.
Nach Auskunft der Working Group beim W3C auf Github wird generell von Wortgruppen ausgegangen:
„WCAG 2.0 is definitely referring to the „group of words“ definition. A group of words with a special idiomatic meaning would also be a phrase, but the group of words doesn’t need to have special meaning, it could just be a group of words. e.g. „Tom wants to introduce himself in French, so he says „(whatever hi, I’m Tom is in French)“.
– Edit 29.06.2020: Die Frage, ob die WCAG auch die Auszeichnung einzelner Wörter fordert und wann wird aktuell neu diskutiert. Der Artikel wird evtl. zukünftig angepasst. –
Das Erfolgskriterium 3.1.2 und damit die Auszeichnung des Sprachwechsels bezieht sich wie bei der Auszeichnung der Hauptsprache auf „menschliche Sprachen“, also eindeutig auch auf Plansprachen – wenngleich dieser Aspekt in der Praxis auch hier sicher von untergeordneter Bedeutung ist.
In dem Demo-Text hätte – da es sich spezifisch um einen Text zu „Social Media“ handelt – kein Wort zwingend nach WCAG 2.0 auf Stufe AA ausgezeichnet werden müssen.
Auszeichnung des Sprachwechsels in PDF/UA-1
PDF/UA-1 fordert generell die Auszeichnung des Sprachwechsels beim Wechsel der „natürlichen Sprache“ eines Textes und folgt hier der ISO 32000-1: 2008, 14.9.2 und 7.9.2, also PDF 1.7. Ausnahmen sind nicht definiert. Was aber, wenn ein Wort bereits ohne Auszeichnung des Sprachwechsels identisch ausgesprochen wird und daher in keinem Fall die konkrete Barrierefreiheit betroffen ist, z.B. bei den Wörtern „Desktop“ oder „Explorer“ oder „Twitter“ – um nur einige wenige Wörter zu nennen? Dieser Fall wird nicht erwähnt; PDF/UA-1 selber kennt keine Kategorisierungen von Wort-Typen oder eine Berücksichtigung des Kontexts.
Leider etwas rätselhaft kommt die zugehörige Fehlerbedingung im Matterhorn-Protokoll daher. Sie lautet: „Die natürliche Sprache ist nicht geeignet“. Eigentlich kann bei bestehenden Texten allenfalls die Auszeichnung der im Text verwendeten Sprache nicht geeignet sein. Denn würde man z.B. einen englischen Abschnitt als französischen Abschnitt auszeichnen, dann ist es die Auszeichnung, die nicht geeignet ist, und nicht die „natürliche Sprache“ selber. Auch ist die Konsequenz eine andere: Eine nicht-geeignete Auszeichnung bedeutet, dass das Sprachkürzel korrigiert werden muss; eine nicht-geeignete natürliche Sprache bedeutet, dass man den Text ändern müsste, damit er gegenüber der Auszeichnung geeignet wäre. So zumindest mein Verständnis dieser Fehlerbedingung.
Auch stellen sich weitere Fragen: Wie soll mit englischen Wörtern umgegangen werden, die in den Wortschatz der natürlichen Sprache „Deutsch“ eingegangen sind? Und wie mit Wörtern, die mit englischer Betonung ausgesprochen werden, z.B. „Handy“, aber nicht aus der „natürlichen Sprache“ Englisch kommen?
Das Mapping „Achieving WCAG 2.0 with PDF/UA-1„ nennt als Entsprechung den Abschnitt 7.2:3 von PDF/UA-1 für das Erfolgskriterium 3.1.1 der WCAG 2.0. Das ist insofern korrekt als mit einer Auszeichnung aller Abschnitte und einzelner Wörter natürlich das Erfolgskriterium 3.1.1 der WCAG 2.0 erfüllt ist. Die Zuordnung – ohne weiteren Kommentar zu den Unterschieden – ist dennoch kritisch, zumal im Abschnitt „Failing WCAG 2.0 Conformance with PDF/UA-1″ gesagt wird: „Violating PDF/UA should be considered a violation of WCAG 2.0″. Da das Erfolgskriterium 3.1.2 der WCAG 2.0 Ausnahmen enthält und einzelne Wörter nicht zwingend ausgezeichnet werden müssen, ist deren Nicht-Auszeichnung ein Fehler nach PDF/UA-1, aber kein Fehler nach WCAG 2.0. Nur die fehlende Auszeichnung von Abschnitten, z.B. Zitate, wäre eindeutig sowohl für PDF/UA-1 als auch WCAG 2.0 ein Fehler.
Nach PDF/UA-1 hätte wohl jedes englische Wort unseres Demo-Textes ausgezeichnet werden müssen. Was gemäß der Fehlerbedingung im Matterhorn-Protokoll ausgezeichnet werden müsste scheint unklar, denn immerhin werden vier der englischen Wörter entweder gleich oder annähernd gleich ausgesprochen. Die „natürliche Sprache“ wäre also für diese vier Wörter durchaus und auch ohne Auszeichnung geeignet – sofern man den praktischen Umgang von Screenreadern darunter versteht.
Auszeichnung des Sprachwechsels in der BITV 2.0
Was die BITV 2.0 hinsichtlich des Sprachwechsels vorsieht hängt maßgeblich davon ab, ob die Begründung zur BITV 2.0 hinzugenommen wird oder nicht. Die formale Bedingung lautet:
„3.1.2 Sprache einzelner Abschnitte. Die natürliche Sprache aller verwendeten Textpassagen oder Ausdrücke ist durch Programme erkennbar.“
Ausnahmen nennt die BITV 2.0 und damit die eigentliche Verordnung nicht. Leider wurde auch in der BITV 2.0 versäumt zu definieren, ob ein „Ausdruck“ generell eine Wortgruppe ist oder ob ein einzelnes Wort ein „Ausdruck“ sein kann.
Nimmt man die Begründung zur BITV 2.0 hinzu, dann wird die Lage verwirrend. Während in der Bedingung selber und damit in der Verordnung von „allen“ die Rede ist, sind nach Begründung zur BITV 2.0 (Seite 13) nicht „alle“ gemeint:
„2.3.2.19 Zu Bedingung 3.1.2 der Anlage 1 Die WCAG 2.0 lassen Ausnahmen zu wie Eigennamen, Fachbegriffe, sprachlich unbestimmte Begriffe sowie Begriffe oder Sätze, die Teil der im textlichen Umfeld verwendeten Umgangssprache sind. Die Anlage 1 übernimmt diese Ausnahmen grundsätzlich nicht, weil Eigennamen oder Fachbegriffe aus Sicht der Arbeitsgruppe ausgezeichnet beziehungsweise umbenannt werden müssen. Für Begriffe, die in den allgemeinen Sprachgebrauch übergegangen und insbesondere auch im Duden aufgeführt sind, also zum Beispiel der Computer oder das Web, ist eine Auszeichnung oder Umbenennung nicht erforderlich.“
Leider enthält dieser Passus einige Unklarheiten. Laut Begründung müssen Eigennamen und Fachbegriffe ausgezeichnet bzw. umbenannt werden. Sowohl die Auszeichnung als auch die Umbenennung würde demnach zum Erfolg führen. Dabei scheint sich das „bzw.“ auf Fachbegriffe zu beziehen. Fachbegriffe (einer anderen Sprache) sind nicht nur rein-sprachliche Begriffe. Sie transportieren einen bestimmten, festgelegten Bedeutungsinhalt. Eine Umbenennung könnte also dazu führen, dass der neue Begriff unklar wird und erklärt werden müsste.
Der Verweis auf den „Duden“ ist mindestens ungenau. Der Duden ist zunächst ein Verlag, der mehrere Bücher zur deutschen Sprache vertreibt. Im Shop sind derzeit u.a. verfügbar:
- Duden – Das große Wörterbuch der deutschen Sprache (2011) mit mehr als 780.000 Stichwörtern.
- Duden – Deutsches Universalwörterbuch (2015) mit mehr als 500.000 Stichwörtern.
- Duden – Das Fremdwörterbuch (2015) mit etwa 60.000 Wörtern des – laut Beschreibung – „Fremdwortschatz(es) der deutschen Sprache“.
- Duden – Die Rechtschreibung (2017) mit 145.000 Stichwörtern.
Laut Wikipedia ist mit „Duden“ der Rechtschreibduden gemeint. Ob in der Begründung zur BITV 2.0 ebenfalls der Rechtschreibduden gemeint ist, scheint ebenso fraglich wie der Ansatz, dass es einen „allgemeinen Sprachgebrauch“ gibt.
Schauen wir auf die Liste der enthaltenen Stichwörter der o.g. vier Werke, so stellen wir große Unterschiede bei der Zahl der Stichwörter fest. Was also nach Begründung zur BITV 2.0 ausgezeichnet werden muss und was nicht hängt davon ab, was mit „Duden“ gemeint ist.
Selbst aber, wenn diese Auslegung zu detailverliebt daherkommen mag und es Konvention ist, dass mit „Duden“ der Rechtschreibduden gemeint ist: Wörterbücher sind nicht in Stein gemeißelt. Mit jeder Neuauflage kommen Wörter hinzu, darunter auch Wörter aus anderen Sprachen, z.B. Anglizismen.
Im August 2017 erschien die 27. und derzeit aktuellste Auflage des „Rechtschreibduden“ des Duden-Verlags mit 145.000 Wörtern. Mit dieser Auflage wurden 5000 neue Wörter aufgenommen, darunter auch englische Wörter. Diese hätten lt. Begründung bis zum 8.8.2017 ausgezeichnet werden müssen und ab dem 9.8.2017 jedoch nicht mehr. Das würde sich natürlich auch auf Prüfergebnisse und damit einem wichtigen Kriterium für die Erfüllung von Verträgen auswirken. Prüfergebnisse vor dem 8.8.2017 wären evtl. andere als nach dem 8.8.2017. Das gilt natürlich nicht nur für PDF, sondern auch für HTML. Und auch, wenn das Deutsche Universalwörterbuch oder ein anderes Wörterbuch des Duden-Verlags gemeint sein sollte: Das Problem ist letztlich das Gleiche. Fragwürdig scheint außerdem die Formulierung „insbesondere auch“, denn abgesehen vom „Duden“ gibt es weitere Wörterbücher der deutschen Sprache von anderen Verlagen. Wären andere Wörterbücher möglich, dann würde sich ein weiteres Problem stellen, denn die enthaltenen Wörter müssen nicht identisch sein.
Der Duden-Verlag verfügt über eine Online-Abfrage, bei der jedoch nicht explizit der Rechtschreibduden abgefragt werden kann. Schauen wir uns dennoch unseren Demo-Text zu Social Media an: „Social Media“ müsste laut Begründung zur BITV 2.0 nicht ausgezeichnet werden, da sich der Begriff seit 2013 im Rechtschreibduden befindet. Gemäß der Bedingung hingegen müsste „Social Media“ ausgezeichnet werden. Gemäß der Begründung zur BITV 2.0 müssten die Begriffe „Blogs“ und „Podcasts“ nicht ausgezeichnet werden, da sie sich seit 2006 im Rechtschreibduden befinden. Sofern mit „Ausdruck“ in der Bedingung selber auch einzelne Wörter gemeint sind, müssten beide Wörter evtl. schon ausgezeichnet werden. Eigennamen wiederum müssten – vorausgesetzt mit Ausdrücken sind einzelne Wörter gemeint – generell sowohl nach der Bedingung der BITV 2.0 als auch nach der Begründung zur BITV 2.0 ausgezeichnet werden sowie die Begriffe „Media-Sharing“ und wahrscheinlich „Social Networks“.
Kritisch und das betrifft auch diese Bedingung ist, dass es um die Auszeichnung der „natürlichen Sprache“ geht und nicht um die „menschliche Sprache“. Wie schon oben gesagt, mag dies in der Praxis eine untergeordnete Rolle spielen und zu streng ausgelegt sein, könnte aber eben bedeuten, dass man ein Wort oder ein Zitat aus der Plansprache Esperanto gemäß Glossar der BITV 2.0 nicht auszeichnen müsste. Es rächt sich also bei strenger Auslegung, dass die BITV 2.0 hier – auch begrifflich – nicht den WCAG 2.0 folgt.
Auszeichnung des Sprachwechsels in der Praxis
Sicherlich kann die derzeit noch nicht unübliche rein-manuelle Bearbeitung von PDF-Dateien als Brückenpraxis betrachtet werden. Dennoch: Bei rein-manueller Auszeichnung kann pro Sprachwechsel von etwa 20 bis 30 Sekunden ausgegangen werden, wobei dies von der Geübtheit des Bearbeiters abhängt. Wörter, die ausgezeichnet werden müssen, müssen allerdings im Dokument erst gefunden und ggf. evtl. im Rechtschreibduden? nachgeschlagen werden oder gefunden und direkt ausgezeichnet werden – abhängig vom relevanten Standard bzw. Vertrag. Dieser zeitliche Aufwand würde sich bei einer Prüfung auf Konformität wiederholen, denn auch hier müssten die entsprechenden Wörter erst gefunden werden. Je länger die Datei, desto höher der zeitliche Aufwand. Daher – und ich komme zurück auf einige der oben angeführten Fragen – ist natürlich interessant, was eigentlich Screenreader-Nutzer selber zu dem Thema sagen.
Was sagen eigentlich Nutzer zum Sprachwechsel?
Diese Frage lässt sich wie oben angerissen nur eingeschränkt beantworten, da man jeden Screenreader-Nutzer fragen müsste und für konkrete Anweisungen Nutzer zur gleichen Einschätzung kommen müssten. Auch kann die Antwort von weiteren ebenfalls oben genannten Faktoren abhängen.
Schauen wir uns die Anforderungen aus WCAG 2.0, PDF/UA-1 und der BITV 2.0 an, dann könnte angenommen werden, dass PDF/UA-1 am meisten für die Nutzer tut, denn der Sprachwechsel müsste faktisch immer zumindest dann ausgezeichnet werden, wenn ein Wort nicht gleich ausgesprochen würde. Dem würde die BITV 2.0 folgen und danach die Begründung zur BITV 2.0. Abgeschlagen auf dem letzten Platz stünden die WCAG 2.0 und damit der EU-Standard EN 301 549, der die Kriterien der WCAG 2.0 als Minimalanforderung für sowohl HTML als auch PDF-Dokumente generell übernimmt.
Tatsächlich scheint es umgekehrt zu sein. Das Auszeichnen jedes einzelnen Wortes einer anderen Sprache und nicht nur von Wortgruppen stößt zumindest bei einigen Screenreader-Nutzern auf deutlich weniger Gegenliebe, als man meinen könnte. Folgend die Aussagen von vier Screenreader-Nutzern und Accessibility-Experten.
Jan Eric Hellbusch schreibt in seinem Artikel zu Sprachangabe und Sprachwechsel:
„Empfehlung: Weil (…) häufige Sprachwechsel innerhalb eines Fließtextes zu deutlichen Verzögerungen in Sprachausgaben führen, sollte die ursprüngliche Anforderung der WCAG 2.0 als Maßstab für die Kennzeichnung von anderssprachigen Texten angewandt werden.“
Domingos de Oliveira geht in seinem Artikel „Wie funktioniert die Sprachausgabe?“ noch weiter und bezeichnet das Auszeichnen einzelner Wörter als „Zeitverschwendung“. Er schreibt:
„Die meisten Leute wissen nicht, was Fremdwörter sind. Restaurant, Smartphone, Foyer, Lobby, Team… Was davon muss gekennzeichnet werden und was nicht? Die Screenreader sind sich uneins und viele Blinde verwenden heute mehr als einen. Ich habe NVDA, Jaws und VoiceOver am Start und mir fällt gar nicht mehr auf, wer was wie ausspricht. Jaws spricht das Wort „Team“ korrekt aus, NVDA tut das nicht. Ich könnte mir das nicht merken und Sehenden ist das erst recht nicht zumutbar. Man kann die gewonnene Zeit sinnvoller investieren.“
Er nennt außerdem einen Aspekt, der in der Diskussion rund um dieses Thema oft vernachlässigt wird und mindestens die Usability betrifft:
„Das zweite Problem ist, das eine Sprachauszeichnung nicht garantiert, dass ich das Wort verstehe. Anders als bei den Wörterbüchern der Screenreader wird nicht festgelegt, wie das Wort ausgesprochen wird. Vielmehr wird dem Screenreader die Anweisung gegeben, für dieses Wort sagen wir auf die französische Sprachausgabe umzuschalten und es so auszusprechen, als ob der Hörer Franzose wäre. Ich weiß aber gar nicht, wie Restaurant auf französisch klingt, weil ich dieser Sprache nicht mächtig bin. Bei der Geschwindigkeit, auf die ich meinen Screenreader eingestellt habe könnte ich im französischen Modus kein einzelnes Wort und im Englischen bestenfalls noch den groben Sinn erfassen.“
Auch Eva Papst schließt sich der Meinung an, dass einzelne Wörter nicht ausgezeichnet werden müssen, sondern nur Wortgruppen (Quelle: Nachfrage per E-Mail).
Und die gleiche Auffassung vertritt auch Marco Zehe (Quelle: Nachfrage per E-Mail):
„Nach meiner Erfahrung ist es sinnvoller, nur ganze Zitate oder Absätze in Fremdsprachen auszuzeichnen und nicht jedes einzelne z.B. englische Wort in einem sonst deutschen Fließtext. Die meisten Sprachausgaben außer vielleicht der ESpeak und der alten Eloquence kommen mit vielen Wörtern klar, da sind Sprachwechsel für einzelne Wörter beim Hören eher störend, als dass sie hilfreich wären.“
Kompatibilität von PDF/UA-1, WCAG 2.0, BITV 2.0
Betrachtet man die Anforderungen in den WCAG 2.0, in EN 301 549, in der BITV 2.0, in der Begründung zur BITV 2.0 und in PDF/UA-1 dann kann festgestellt werden, dass einzig die Anforderungen von WCAG 2.0 und EN 301 549 kompatibel sind. Sowohl die BITV 2.0 als auch PDF/UA-1 formulieren letztlich andere Anforderungen als die Mindestanforderungen von WCAG 2.0 und EN 301 549.
Neben der Kompatibilität auf der formalen-theoretischen Ebene ist in der dienstleisterischen Praxis und bei Verträgen wichtig, wann eine Datei konform ist – also eine Prüfung besteht oder bestehen würde. Aus der fehlenden Kompatibilität ergeben sich hier zwingend Probleme.
- Ein Dokument, bei dem ohne Ausnahme jeder Sprachwechsel ausgezeichnet ist, ist konform mit PDF/UA-1, BITV 2.0, WCAG 2.0 auf Stufe AA und der Europäischen Norm 301 549.
- Ein Dokument, bei dem für Wortgruppen und Zitate der Sprachwechsel definiert wurde und für Eigennamen, Fachbegriffe in Fachtexten usw. nicht, wäre konform mit den WCAG 2.0 auf Stufe AA und EN 301 549. Das Dokument wäre aber womöglich weder mit PDF/UA-1 noch der BITV 2.0 konform. Bei der BITV 2.0 käme – außer bei Eigennamen – hinzu, ob man die Begründung verwendet oder nicht. Da hinge die Konformität u.U. vom Zeitpunkt der Veröffentlichung des „Dudens“ ab.
Die einzige Möglichkeit also konform mit allen genannten Standards und Normen sowie der deutschen Verordnung und ihrer Begründung zu sein, wäre die Auszeichnung von jedem einzelnen anderssprachigen Wort. Das aber wiederum kann – unabhängig vom Zeitaufwand und damit auch finanziellem Aufwand – zu den genannten Unterbrechungen des Lese-Flusses führen und evtl. zu einem gut-gemeint statt gut-gemacht – was freilich letztlich die Nutzer beurteilen müssen.
Barrierefreiheit soll nicht an der Zeit, am Geld oder sonstigen Ressourcen scheitern. Barrierefreiheit kann aber auch nicht bedeuten, dass formal-theoretische Anforderungen evtl. zu Lasten der konkreten Nutzbarkeit gehen und gar als störend empfunden werden.
Über weitere Einschätzungen und Meinungen nicht nur, aber insbesondere von Screenreader-Nutzern, würde ich mich freuen – gerne im Kommentarbereich oder per E-Mail.
Downloads
- PDF-Datei – Demo-Text „Einführung Social Media“ (ohne Sprachwechsel)
- PDF-Datei – Demo-Text „Einführung Social Media“ (mit Sprachwechsel)
- Download gezippte Audio-Dateien (Hedda mit und ohne Sprachwechsel, eSpeak mit und ohne Sprachwechsel, JAWS mit Eloquence mit und ohne Sprachwechsel).
Vielen Dank an:
Eva Papst und Marco Zehe für Input, Testings und Einschätzung sowie an Domingos de Oliveira für die weitreichende Zitier-Erlaubnis.
Hinweis: Alle Artikel auf dieser Website sind kostenlos verfügbar. Ich freue mich jedoch über Zahlungen in meine Kaffeekasse über Paypal.