Votre gouvernement d’État utilise probablement l’IA en ce moment même pour décider si vous avez droit à une aide au logement, si votre enfant a besoin d’un suivi scolaire adapté, ou le montant de votre allocation. Et il est fort probable que personne au capitole n’ait vraiment donné son feu vert.
Voilà la vraie histoire derrière la ruée vers l’adoption de l’IA dans le secteur public : des administrations qui accélèrent, des budgets qui explosent, et la responsabilité… eh bien, elle attend toujours son heure en commission.
Les États engloutissent des milliards dans des systèmes d’intelligence artificielle pour l’éducation, la santé, le logement et les prestations sociales. Le discours de vente est imparable — automatiser le travail fastidieux, réduire l’erreur humaine, servir plus de gens avec le même budget. Ça sonne bien jusqu’au moment où un algorithme vous refuse vos allocations alimentaires et que vous découvrez qu’il n’existe aucun vrai moyen de contester la décision de l’IA.
Le Center for Democracy and Technology vient de publier un rappel cinglant : nous n’avons pas le cadre politique qu’il faut. Loin de là. Trois lacunes ressurgissent systématiquement dans les législatures des États, et ce ne sont pas des abstractions — elles affectent déjà des gens concrets.
Le problème de transparence que personne ne résout
Voici une phrase qui devrait vous mettre mal à l’aise :
« Les agences publiques s’appuient de plus en plus sur l’IA pour livrer des services publics comme l’éducation, le logement, les prestations sociales et la santé. »
Vous voyez ce qui manque ? Tout ce qui explique comment ces systèmes fonctionnent réellement. Ou comment on découvre pourquoi on s’est fait rejeter. Ou ce qu’on peut y faire.
La plupart des États n’imposent aucune obligation aux agences de révéler comment leurs systèmes d’IA prennent les décisions. Une autorité du logement peut déployer un algorithme prédictif qui classe certains quartiers comme « à haut risque » et verrouille effectivement l’accès aux gens. Les écoles peuvent utiliser des systèmes de notation automatisée pour envoyer les élèves dans des cursus académiques selon des critères opaques. Pendant ce temps, les personnes concernées ? Elles reçoivent une lettre type disant que la décision a été prise par « un processus automatisé ». Bon courage pour faire appel.
Le pire : les agences ne savent souvent même pas ce que leurs propres systèmes font. Elles achètent un outil opaque à un prestataire, l’intègrent dans leur workflow, et croisent les doigts. Quand les groupes de défense des droits civiques demandent de la documentation, la réponse est généralement « c’est secret professionnel du prestataire ».
Certains États commencent à bouger. Quelques-uns exigent des évaluations d’impact avant le déploiement. D’autres imposent la divulgation des registres publics concernant l’utilisation de l’IA dans les décisions d’allocations. Mais c’est fragmentaire, réactif, et toujours en retard sur ce qu’on met réellement en place.
Puis-je vraiment contester une décision d’IA concernant mes allocations ?
Supposons qu’une agence d’aide sociale d’État utilise un système d’IA pour vous classer comme « à haut risque » de fraude et réduit vos allocations. Vous voulez faire appel. Que se passe-t-il ensuite ?
Dans la plupart des endroits : rien. Il n’existe pas de cadre juridique pour ça.
Vous pouvez demander une audience avec un agent social humain, bien sûr. Mais s’il rentre les mêmes données dans le même système, vous obtiendrez probablement la même réponse. Le raisonnement de l’IA reste verrouillé dedans. Vous ne saurez jamais comment elle a pesé votre historique professionnel par rapport à votre code postal par rapport à la taille de votre famille. On vous dit juste que vous avez perdu.
C’est ici que les États ont besoin de règles strictes — pas de suggestions, pas de bonnes pratiques.