L’État vient de publier un décret général fixant de nouvelles attentes en matière d’utilisation et de contrôle de l’intelligence artificielle. Cette mesure comprend une directive demandant au Département de la technologie de l’État d’élaborer des recommandations et des bonnes pratiques pour l’apposition de filigranes sur les images et vidéos générées par l’IA ou ayant subi des modifications importantes.
En vertu de ce décret, les entreprises qui souhaitent travailler avec l’État devront également démontrer qu’elles ont mis en place des mesures de protection pour empêcher toute utilisation abusive de l’IA (telle que les préjugés, les contenus illégaux ou les violations des droits civils) afin de pouvoir prétendre à des contrats. Les agences examineront la manière dont ces technologies sont régies et intégrées aux services.
Le décret vise également à élargir l’utilisation de l’IA générative par l’État pour améliorer les services publics, notamment grâce à un nouveloutil alimenté par l’IA qui aide les habitants à accéder à des programmes et des prestations en fonction des étapes de leur vie, comme la création d’une entreprise ou la recherche d’un emploi.
Un cadre plus large pour la supervision de l’IA

Cette évolution s’inscrit dans une tendance plus large des politiques en matière d’IA au niveau des États. Partout dans le pays, de nombreux États ont adopté des lois ciblant divers aspects, notamment la transparence algorithmique, la discrimination et les médias synthétiques.
La loisur l’IA du Colorado exige des évaluations des risques et des avis de transparence pour les systèmes d’IA à haut risque qui affectent les consommateurs dans des domaines comme l’emploi, le logement et les soins de santé. L’Illinois a adopté une législation obligeant les entreprises à réaliser des audits de biais sur les systèmes de décision automatisés, et le Texas a promulgué des lois sur les deepfakes, y compris l’obligation de divulguer les contenus générés par l’IA ou manipulés dans certains contextes.