Ein Entwickler sitzt am Schreibtisch, starrt auf eine Tabellenkalkulation mit 847 Bildern, die Alt-Text-Beschreibungen brauchen, und realisiert: Das war eine schreckliche Lebensentscheidung.
Diese Tabellenkalkulation repräsentiert ein echtes Problem. Web-Barrierefreiheit ist nicht mehr einfach eine Checkbox — sie ist zur rechtlichen Minenkarte geworden. ADA-Klagen wegen unzugänglicher Websites haben 2025 Rekordniveaus erreicht, und wenn deiner Website die richtigen Alt-Texte fehlen, lädst du praktisch die Anwaltschaft zum Kaffee ein. Aber hier ist der Punkt: Alt-Texte nach WCAG 2.1 für Hunderte oder Tausende Bilder manuell zu schreiben ist seelenzehrende Arbeit. Also hat jemand eine API gebaut, die das erledigt. Ein Call. Eine Antwort. Fertig.
Die API heißt Origrid Alt Text und ist erfrischend geradlinig — was in einer Branche, die sonst alles verkompliziert, fast schockierend ist.
Wie es wirklich funktioniert
Du sendest eine Bild-URL. Die API sendet Alt-Text zurück, der WCAG 2.1 Erfolgskriterium 1.1.1 erfüllt. Das ist alles. Kein Model-Training. Kein Bild-Upload. Keine komischen Verzögerungen.
“Schreib eine Bild-URL, bekomm WCAG 2.1-konformen Alt-Text zurück” — das ist das ganze Versprechen, und es hält.
Die Antwort enthält drei Dinge: den Alt-Text selbst, seine Zeichenlänge und einen Boolean-Flag, der dir sagt, ob er WCAG-konform ist. “Goldener Sonnenuntergang über Sandstrand mit türkisfarbenem Wasser und Silhouetten von Palmen.” “Zwei türkisfarbene Kaffeetassen auf Untertassen und ein Smartphone auf einem rustikalen Holztisch in einem Café.” “Ein schwarzer Labradorwelpe sitzt auf einem Holzboden und schaut mit großen dunklen Augen nach oben.”
Alle unter 125 Zeichen. Alle aussagekräftig. Alle für Screen-Reader gemacht, nicht für Instagram-Captions.
Warum das mehr bedeutet als du denkst
Die meisten Entwickler wissen theoretisch, dass Alt-Text wichtig ist. Aber der Abstand zwischen Wissen und tatsächlicher Umsetzung? Das ist, wo 87 % aller Websites leben. Alt-Text wird zuletzt geschrieben, gehetzt oder überhaupt nicht. Screen-Reader verkünden Tausende nutzlose Beschreibungen wie “bild_47284.jpg” oder — noch schlimmer — gar nichts.
Inzwischen hat sich die Rechtslage grundlegend verschärft. Web-Accessibility-Ansprüche sind seit 2017 um 1.300 % gestiegen. Restaurants, Fashion-Brands, Nonprofits — spielt keine Rolle. Wenn du eine Website ohne ordentliche Barrierefreiheit betreibst, gibt es irgendwo einen Anwalt, der das als leichte Beute betrachtet.
Automatisierung löst das. Nicht perfekt — kein KI-generierter Alt-Text wird so gut sein wie durchdachtes menschliches Schreiben — aber perfekt genug. Und das ist der Move: Eine mühsame, fehleranfällige und rechtlich riskante Aufgabe gegen etwas Zuverlässiges austauschen.
Ist das besser als einfach ChatGPT zu nutzen?
Leute fragen das ständig. Die ehrliche Antwort? Ja, aber auch irgendwie nein, je nachdem wie du es aufziehst.
ChatGPT erzwingt Zeichenlimits nicht ohne Prompt-Engineering-Akrobatik. Du müsstest Outputs selbst validieren. Die API ist nicht für einzelne, hochvolumige Aufgaben gedacht — du würdest GPT-4 Vision-Raten zahlen, um 10.000 Bilder zu beschreiben, was schnell teuer wird. Es gibt keinen wcag_compliant-Flag, der dir sagt, was wirklich die Spezifikation erfüllt. Das würdest du selbst bauen. Oder du würdest einfach… hoffen.
Origrid Alt Text ist ein spezialisierter Endpoint. Ein Call. Validierte Outputs. Günstig (kostenlose Stufe deckt 50 Bilder/Monat ab). Das ist der ganze Vorteil: Spezialisierung. Das ist langweilige Infrastruktur, was genau das ist, das man sich von Infrastruktur wünscht.
Der Automatisierungs-Pfad
Wenn du eine Site mit Hunderten bereits live geschalteten Bildern hast, ist der echte Gewinn Bulk-Processing. Der ursprüngliche Post zeigt ein schnelles Python-Beispiel: Alle Bilder einer Seite scrapen, die ohne Alt-Text identifizieren, sie an die API schicken, die Beschreibungen zurückschreiben. Fünfzehn Minuten Scripting sparen dir Wochen manuelle Arbeit.
Für CMS-Nutzer — WordPress, Contentful, was auch immer — der Play ist Integration an der Quelle. Neues Bild hochgeladen? Alt-Text wird beim Import automatisch generiert. Spart dir, später darüber nachzudenken, was sowieso niemand macht.
Die API sitzt auf RapidAPI, was bedeutet, dass sie für praktisch jeden Stack zugänglich ist. Keine komischen Dependencies. Keine Infrastruktur zum Warten. Ship it.
Die unbequeme Wahrheit
Hier ist, was niemand laut aussprechen will: Die meisten Sites haben schlechte oder fehlende Alt-Texte, weil gute Alt-Texte echtes Nachdenken erfordern. Zu beschreiben, was wichtig ist in einem Bild — nicht nur was sichtbar ist — erfordert kognitive Arbeit. Eine KI kann diese Arbeit jetzt ungefähr nachahmen. Nicht perfekt. Aber gut genug, um dich aus dem Gericht raus zu halten.
Ist das zynisch? Sicher. Ist das auch, wie echte Unternehmen arbeiten? Auch sicher.
Die API löst nicht das Problem von schlecht gestalteten Bildern oder unsinnigen visuellen Hierarchien. Sie macht deine Site nicht barrierefrei — das erfordert Arbeit überall, von Tastaturnavigation bis Farbkontrast bis Formularkennung. Aber sie löst das spezifische, hartnäckige, lästige Problem von unbeschriebenen Bildern im großen Maßstab.
Wo ist der Haken?
Es gibt keinen. Zumindest keinen offensichtlichen. Der kostenlose Tier ist real (50 Bilder/Monat). Die Paid-Preisgestaltung folgt RapidAPIs Standard-Struktur. Die API ist schnell. Die Output-Qualität ist gut. Sie tut, was sie verspricht.
Der einzige Trade-off ist, dass KI-generierte Alt-Texte nie die Nuance menschlichen Schreibens haben werden. Eine KI könnte ein Foto einer politischen Kundgebung als “Menschenmenge mit Schildern” beschreiben, wenn der eigentliche Kontext — die Einsätze, der Moment, die spezifische Sache — wichtig ist. Für die meisten E-Commerce- und Content-Sites ist das okay. Für alles redaktionell Sensible würdest du menschliche Blicke wollen.
Aber die meisten Sites haben nicht redaktionell sensible Bilder. Sie haben Produktfotos, Hero-Images, Team-Headshots. Die Dinge, die safe zu automatisieren sind.
Warum jetzt?
ADA-Durchsetzung nimmt Fahrt auf. Vision-Modelle sind gut genug. Der Abstand zwischen “nervige manuelle Aufgabe” und “lösbares Automatisierungsproblem” ist endlich geschlossen. Jemand hat diese Lücke gesehen und etwas Nützliches gebaut statt Vaporware zu übertreiben. Das ist selten genug, um es zu bemerken.
Wenn deine Site Hunderte Bilder und keinen Alt-Text hat, rettet dich das vor einer Mischung aus ethischem Problem und rechtlichem Risiko. Wenn du etwas Neues baust, diese Integration in deine Upload-Pipeline einzubauen ist einfach smarter, als hoffnungsvoll darauf zu warten, dass Entwickler später Beschreibungen schreiben.
Sie werden nicht. Das löst das.
🧬 Verwandte Insights
- Mehr lesen: Oracle 26ai Besteht Endlich den Test: Kann Natürliche Sprache SQL Wirklich Ersetzen?
- Mehr lesen: Der ‘Ich Habe Gebaut’-Post Industriekomplex: Warum die Standardisierung von Developer-Narrativen Nach Hinten Losgeht
Häufig Gestellte Fragen
Kann ich das für Bilder nutzen, die ich nicht besitze? Ja. Die API funktioniert mit jeder URL. Das heißt aber: Nutze gesunden Menschenverstand — füttere sie nicht mit lizenziertem Content ohne Erlaubnis. Der Alt-Text selbst kann genutzt werden; das Bild nicht.
Wie akkurat ist der Alt-Text im Vergleich zu manuell geschriebenen Beschreibungen? Bei unkomplizierten Bildern (Produkte, Landschaften, Menschen) ist es solide. Bei komplexen, kontextuellen Bildern ist menschliches Schreiben besser. Aber 90 % deiner Site ist nicht komplex. Dafür funktioniert das.
Ersetzt das einen vollständigen Barrierefreiheit-Audit? Nein. Alt-Text ist ein Teil der Web-Barrierefreiheit. Du brauchst immer noch die richtige Überschrift-Struktur, Tastaturnavigation, Formularkennung, Farbkontrast und mehr. Das behebt nur ein großes Problem im großen Maßstab.