230 Accessibility-Audits: Was die Daten zeigen
Ich habe ein kostenloses Accessibility-Testing-Tool gebaut. Nach 230 Audits zeigen die Daten ein ernüchterndes Bild: Der Durchschnittsscore liegt bei 29,5 von 100. Hier sind die Ergebnisse - und was KI dazu beitragen kann.
Vor ein paar Monaten habe ich mir eine Frage gestellt: Warum ist Accessibility-Testing so kompliziert? Tools wie pa11y, axe oder Lighthouse existieren seit Jahren. Trotzdem testen die wenigsten Teams regelmäßig.
Die Antwort: Die Tools richten sich an Entwickler. API-Keys, CLI-Installationen, npm-Dependencies. Für einen schnellen Check unverhältnismäßig viel Aufwand.
Also habe ich barrieretest.at gebaut. URL eingeben, testen, fertig. Kein Account, kein Setup, kostenlos.
Mittlerweile wurden 230 Audits durchgeführt. Zeit, sich die Daten anzuschauen.
Der Durchschnittsscore: 29,5 von 100
Das ist die Zahl, die am meisten hängen bleibt. Von 210 erfolgreichen Audits liegt der Durchschnitt bei 29,5 von 100.
Die Verteilung nach Schweregrad:
| Bewertung | Anzahl |
|---|---|
| Severe | 137 |
| Excellent | 38 |
| Needs Improvement | 23 |
| Good | 7 |
| Critical | 5 |
137 von 210 Audits landen in der Kategorie “Severe”. Das sind 65%. Nur 21% schaffen “Excellent”.
Natürlich ist das keine repräsentative Stichprobe. Wer sein Tool auf barrieretest.at testet, ahnt vielleicht schon, dass es Probleme gibt. Trotzdem: Die Zahlen zeigen, wie weit verbreitet grundlegende Accessibility-Probleme sind.
Die üblichen Verdächtigen
Über alle Audits hinweg tauchen dieselben Probleme immer wieder auf:
| Problem | Anzahl |
|---|---|
| Zu geringer Kontrast (normaler Text) | 1.740 |
| Fehlende Alt-Texte bei Bildern | 1.085 |
| Doppelte ID-Attribute | 1.052 |
| Links mit Bildern ohne Alt-Text | 632 |
| Leere Anchor-Links | 394 |
| Heading-Tags ohne Inhalt | 379 |
| Zu geringer Kontrast (großer Text) | 139 |
| Buttons ohne zugänglichen Namen | 131 |
| Formularfelder ohne Label | 121 |
Veraltetes <center>-Element | 99 |
Die Top 3 sind keine Überraschung. Kontrastprobleme und fehlende Alt-Texte dominieren jede Accessibility-Studie seit Jahren. Interessant ist, dass doppelte ID-Attribute so weit oben landen - ein Problem, das oft von CMS-Systemen oder Copy-Paste-Templates verursacht wird und das viele gar nicht auf dem Schirm haben.
Was auffällt: Die meisten dieser Probleme sind technisch einfach zu beheben. Ein alt-Attribut hinzufügen, eine Farbe anpassen, ein Label verknüpfen. Die Schwierigkeit liegt nicht im Fix, sondern darin, dass das Problem überhaupt bemerkt wird.
Der Ausreißer: 1.165 Probleme auf einer Seite
Jeder Datensatz braucht seinen Ausreißer. Hier ist unserer:
- Score: 1 von 100
- Gefundene Probleme: 1.165
- Verhältnis zum Durchschnitt: 39x so viele Probleme
Allein 896 Bilder ohne Alt-Text auf einer einzigen Seite. Dazu 196 Links mit Bildern ohne Alt-Text und 73 doppelte IDs.
Zum Einordnen: Wenn man ein Problem pro Minute beheben würde, bräuchte man über 19 Stunden ununterbrochene Arbeit.
Was KI zusätzlich findet
barrieretest.at bietet optional eine KI-gestützte Analyse an. Von den 230 Audits wurden 49 (22,6%) mit aktivierter KI durchgeführt.
Die Ergebnisse sind vielversprechend: In 92% der Fälle hat die KI zusätzliche Probleme gefunden, die der automatisierte Test nicht erkennen konnte. Durchschnittlich 2,3 zusätzliche Issues pro Audit.
Was die KI findet, unterscheidet sich grundlegend von den automatisierten Tests:
| KI-Kategorie | Anteil |
|---|---|
| Fehlende Landmarks | 36,5% |
| ARIA-Mismatch | 25,2% |
| Alt-Text-Qualität | 15,7% |
| Seitentitel-Probleme | 11,3% |
| Formular-Label-Klarheit | 5,2% |
| Lang-Attribut | 4,3% |
Der entscheidende Punkt: Automatisierte Tests prüfen, ob ein Alt-Text vorhanden ist. Die KI prüft, ob er sinnvoll ist. Automatisierte Tests finden fehlende Labels. Die KI erkennt, ob die vorhandenen Labels verständlich sind.
83,5% der KI-Findings wurden als “serious” oder “critical” eingestuft. Das sind keine Kleinigkeiten, die die KI da findet.
Die Grenzen
Trotz der positiven Ergebnisse: Es gibt klare Einschränkungen.
Automatisierte Tests erfassen nur etwa 30-40% aller möglichen Accessibility-Probleme. Tastaturnavigation, Screenreader-Kompatibilität, kognitive Zugänglichkeit - das kann kein automatisierter Test zuverlässig prüfen.
KI-Analyse ist besser, aber nicht perfekt. Das aktuelle Modell läuft über Nebius (GPT OSS 120b), und die Kosten müssen kalkuliert bleiben, wenn das Tool kostenlos bleiben soll. Das bedeutet Limits: maximal 50 Elemente pro Kategorie, 8.000 Zeilen Body-HTML, 1.000 Zeilen Head. Bei rund 0,005 EUR pro Test ist das vertretbar, aber es begrenzt die Tiefe der Analyse.
Kein Ersatz für manuelle Tests. Der Gold-Standard bleibt ein menschlicher Experte, der mit assistiven Technologien testet. barrieretest.at ist ein Startpunkt, kein Endpunkt.
Was das für die Praxis bedeutet
Die Daten zeigen drei Dinge:
1. Die Grundlagen fehlen noch. Kontraste, Alt-Texte, Labels - das sind keine exotischen Anforderungen. Es sind die absoluten Basics. Und sie fehlen in der Mehrheit der getesteten Seiten.
2. KI kann die Lücke zwischen automatisierten Tests und manuellen Audits verkleinern. Sie ersetzt menschliche Expertise nicht, aber sie erweitert den Bereich dessen, was automatisiert geprüft werden kann.
3. Testen allein reicht nicht. Ein Ergebnis ist nur so wertvoll wie die Handlungen, die daraus folgen. Die häufigsten Probleme sind technisch einfach zu beheben - wenn jemand die Verantwortung dafür übernimmt.
Seit Juni 2025 gelten das BaFG und BFSG. Die rechtlichen Anforderungen sind da. Die Tools sind da. Die Frage ist nur: Wer in deinem Team kümmert sich darum?
Selbst testen
→ Kostenlos testen auf barrieretest.at
Für eine tiefergehende Analyse oder Unterstützung bei der Umsetzung: