WCAG Alt-Text API | Automatisierte Bild-Barrierefreiheit

Hunderte Bilder für Barrierefreiheit beschreiben? Es gibt jetzt eine API dafür. Und ja, die ADA-Klagen sind real.

Schluss mit manuellem Alt-Text: Diese API regelt WCAG-Konformität in einem API-Call — theAIcatchup

Key Takeaways

  • ADA-Klagen wegen Web-Barrierefreiheit erreichten 2025 Rekordniveaus — fehlende Alt-Texte sind jetzt echte rechtliche Haftung
  • Origrid Alt Text generiert WCAG 2.1-konforme Beschreibungen per einzelnem API-Call, eliminiert manuelle Massenarbeit und Fehler
  • Die API erzwingt 125-Zeichen-Grenzen, vermeidet 'Bild von'-Präfixe und gibt einen Konformitäts-Flag zurück — besser als DIY-ChatGPT-Lösungen für Scale

Ein Entwickler sitzt am Schreibtisch, starrt auf eine Tabellenkalkulation mit 847 Bildern, die Alt-Text-Beschreibungen brauchen, und realisiert: Das war eine schreckliche Lebensentscheidung.

Diese Tabellenkalkulation repräsentiert ein echtes Problem. Web-Barrierefreiheit ist nicht mehr einfach eine Checkbox — sie ist zur rechtlichen Minenkarte geworden. ADA-Klagen wegen unzugänglicher Websites haben 2025 Rekordniveaus erreicht, und wenn deiner Website die richtigen Alt-Texte fehlen, lädst du praktisch die Anwaltschaft zum Kaffee ein. Aber hier ist der Punkt: Alt-Texte nach WCAG 2.1 für Hunderte oder Tausende Bilder manuell zu schreiben ist seelenzehrende Arbeit. Also hat jemand eine API gebaut, die das erledigt. Ein Call. Eine Antwort. Fertig.

Die API heißt Origrid Alt Text und ist erfrischend geradlinig — was in einer Branche, die sonst alles verkompliziert, fast schockierend ist.

Wie es wirklich funktioniert

Du sendest eine Bild-URL. Die API sendet Alt-Text zurück, der WCAG 2.1 Erfolgskriterium 1.1.1 erfüllt. Das ist alles. Kein Model-Training. Kein Bild-Upload. Keine komischen Verzögerungen.

“Schreib eine Bild-URL, bekomm WCAG 2.1-konformen Alt-Text zurück” — das ist das ganze Versprechen, und es hält.

Die Antwort enthält drei Dinge: den Alt-Text selbst, seine Zeichenlänge und einen Boolean-Flag, der dir sagt, ob er WCAG-konform ist. “Goldener Sonnenuntergang über Sandstrand mit türkisfarbenem Wasser und Silhouetten von Palmen.” “Zwei türkisfarbene Kaffeetassen auf Untertassen und ein Smartphone auf einem rustikalen Holztisch in einem Café.” “Ein schwarzer Labradorwelpe sitzt auf einem Holzboden und schaut mit großen dunklen Augen nach oben.”

Alle unter 125 Zeichen. Alle aussagekräftig. Alle für Screen-Reader gemacht, nicht für Instagram-Captions.

Warum das mehr bedeutet als du denkst

Die meisten Entwickler wissen theoretisch, dass Alt-Text wichtig ist. Aber der Abstand zwischen Wissen und tatsächlicher Umsetzung? Das ist, wo 87 % aller Websites leben. Alt-Text wird zuletzt geschrieben, gehetzt oder überhaupt nicht. Screen-Reader verkünden Tausende nutzlose Beschreibungen wie “bild_47284.jpg” oder — noch schlimmer — gar nichts.

Inzwischen hat sich die Rechtslage grundlegend verschärft. Web-Accessibility-Ansprüche sind seit 2017 um 1.300 % gestiegen. Restaurants, Fashion-Brands, Nonprofits — spielt keine Rolle. Wenn du eine Website ohne ordentliche Barrierefreiheit betreibst, gibt es irgendwo einen Anwalt, der das als leichte Beute betrachtet.

Automatisierung löst das. Nicht perfekt — kein KI-generierter Alt-Text wird so gut sein wie durchdachtes menschliches Schreiben — aber perfekt genug. Und das ist der Move: Eine mühsame, fehleranfällige und rechtlich riskante Aufgabe gegen etwas Zuverlässiges austauschen.

Ist das besser als einfach ChatGPT zu nutzen?

Leute fragen das ständig. Die ehrliche Antwort? Ja, aber auch irgendwie nein, je nachdem wie du es aufziehst.

ChatGPT erzwingt Zeichenlimits nicht ohne Prompt-Engineering-Akrobatik. Du müsstest Outputs selbst validieren. Die API ist nicht für einzelne, hochvolumige Aufgaben gedacht — du würdest GPT-4 Vision-Raten zahlen, um 10.000 Bilder zu beschreiben, was schnell teuer wird. Es gibt keinen wcag_compliant-Flag, der dir sagt, was wirklich die Spezifikation erfüllt. Das würdest du selbst bauen. Oder du würdest einfach… hoffen.

Origrid Alt Text ist ein spezialisierter Endpoint. Ein Call. Validierte Outputs. Günstig (kostenlose Stufe deckt 50 Bilder/Monat ab). Das ist der ganze Vorteil: Spezialisierung. Das ist langweilige Infrastruktur, was genau das ist, das man sich von Infrastruktur wünscht.

Der Automatisierungs-Pfad

Wenn du eine Site mit Hunderten bereits live geschalteten Bildern hast, ist der echte Gewinn Bulk-Processing. Der ursprüngliche Post zeigt ein schnelles Python-Beispiel: Alle Bilder einer Seite scrapen, die ohne Alt-Text identifizieren, sie an die API schicken, die Beschreibungen zurückschreiben. Fünfzehn Minuten Scripting sparen dir Wochen manuelle Arbeit.

Für CMS-Nutzer — WordPress, Contentful, was auch immer — der Play ist Integration an der Quelle. Neues Bild hochgeladen? Alt-Text wird beim Import automatisch generiert. Spart dir, später darüber nachzudenken, was sowieso niemand macht.

Die API sitzt auf RapidAPI, was bedeutet, dass sie für praktisch jeden Stack zugänglich ist. Keine komischen Dependencies. Keine Infrastruktur zum Warten. Ship it.

Die unbequeme Wahrheit

Hier ist, was niemand laut aussprechen will: Die meisten Sites haben schlechte oder fehlende Alt-Texte, weil gute Alt-Texte echtes Nachdenken erfordern. Zu beschreiben, was wichtig ist in einem Bild — nicht nur was sichtbar ist — erfordert kognitive Arbeit. Eine KI kann diese Arbeit jetzt ungefähr nachahmen. Nicht perfekt. Aber gut genug, um dich aus dem Gericht raus zu halten.

Ist das zynisch? Sicher. Ist das auch, wie echte Unternehmen arbeiten? Auch sicher.

Die API löst nicht das Problem von schlecht gestalteten Bildern oder unsinnigen visuellen Hierarchien. Sie macht deine Site nicht barrierefrei — das erfordert Arbeit überall, von Tastaturnavigation bis Farbkontrast bis Formularkennung. Aber sie löst das spezifische, hartnäckige, lästige Problem von unbeschriebenen Bildern im großen Maßstab.

Wo ist der Haken?

Es gibt keinen. Zumindest keinen offensichtlichen. Der kostenlose Tier ist real (50 Bilder/Monat). Die Paid-Preisgestaltung folgt RapidAPIs Standard-Struktur. Die API ist schnell. Die Output-Qualität ist gut. Sie tut, was sie verspricht.

Der einzige Trade-off ist, dass KI-generierte Alt-Texte nie die Nuance menschlichen Schreibens haben werden. Eine KI könnte ein Foto einer politischen Kundgebung als “Menschenmenge mit Schildern” beschreiben, wenn der eigentliche Kontext — die Einsätze, der Moment, die spezifische Sache — wichtig ist. Für die meisten E-Commerce- und Content-Sites ist das okay. Für alles redaktionell Sensible würdest du menschliche Blicke wollen.

Aber die meisten Sites haben nicht redaktionell sensible Bilder. Sie haben Produktfotos, Hero-Images, Team-Headshots. Die Dinge, die safe zu automatisieren sind.

Warum jetzt?

ADA-Durchsetzung nimmt Fahrt auf. Vision-Modelle sind gut genug. Der Abstand zwischen “nervige manuelle Aufgabe” und “lösbares Automatisierungsproblem” ist endlich geschlossen. Jemand hat diese Lücke gesehen und etwas Nützliches gebaut statt Vaporware zu übertreiben. Das ist selten genug, um es zu bemerken.

Wenn deine Site Hunderte Bilder und keinen Alt-Text hat, rettet dich das vor einer Mischung aus ethischem Problem und rechtlichem Risiko. Wenn du etwas Neues baust, diese Integration in deine Upload-Pipeline einzubauen ist einfach smarter, als hoffnungsvoll darauf zu warten, dass Entwickler später Beschreibungen schreiben.

Sie werden nicht. Das löst das.


🧬 Verwandte Insights

Häufig Gestellte Fragen

Kann ich das für Bilder nutzen, die ich nicht besitze? Ja. Die API funktioniert mit jeder URL. Das heißt aber: Nutze gesunden Menschenverstand — füttere sie nicht mit lizenziertem Content ohne Erlaubnis. Der Alt-Text selbst kann genutzt werden; das Bild nicht.

Wie akkurat ist der Alt-Text im Vergleich zu manuell geschriebenen Beschreibungen? Bei unkomplizierten Bildern (Produkte, Landschaften, Menschen) ist es solide. Bei komplexen, kontextuellen Bildern ist menschliches Schreiben besser. Aber 90 % deiner Site ist nicht komplex. Dafür funktioniert das.

Ersetzt das einen vollständigen Barrierefreiheit-Audit? Nein. Alt-Text ist ein Teil der Web-Barrierefreiheit. Du brauchst immer noch die richtige Überschrift-Struktur, Tastaturnavigation, Formularkennung, Farbkontrast und mehr. Das behebt nur ein großes Problem im großen Maßstab.

Marcus Rivera
Written by

Tech journalist covering AI business and enterprise adoption. 10 years in B2B media.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by Dev.to