En 2026, plusieurs annonces majeures liées à l’intelligence artificielle auront un impact direct sur la vie quotidienne. Selon les informations disponibles, 7 changements annoncés concernent la réglementation, l’usage dans le secteur public, les pratiques sécuritaires, et des initiatives spécifiques centrées sur l’IA générative et la sécurité des modèles de fondation.
1. Le droit à ne pas utiliser une IA
Une proposition de la Maison Blanche révèle la reconnaissance d’un « droit à ne pas utiliser une IA », notamment dans des services publics cruciaux comme l’éducation ou la santé. Cette annonce souligne une volonté réglementaire de préserver l’humain dans des domaines sensibles, en permettant aux citoyens de choisir des alternatives non automatisées aux décisions basées sur l’IA.
2. L’obligation de certifications pour les systèmes à haut risque
Le Bureau de la politique scientifique et technologique des États-Unis a proposé que les systèmes d’IA présentant des risques élevés fassent l’objet de certifications, similaires à celles requises dans l’industrie automobile ou pharmaceutique. Cette annonce prévoit une normalisation de la sécurité des outils d’IA dans les domaines critiques.
3. Les agences fédérales tenues de surveiller les systèmes d’IA utilisés
La directive exécutive présidentielle impose aux agences fédérales d’assurer la transparence et la surveillance des systèmes d’IA déployés dans leurs services. L’objectif est de garantir que ces technologies ne compromettent pas les droits des utilisateurs et s’alignent sur des principes éthiques.
4. Création du NIST AI Safety Institute
Le NIST AI Safety Institute a été lancé pour établir des normes de sécurité relatives aux modèles de fondation. Cet institut crée des environnements d’évaluation afin de tester la robustesse, la fiabilité et la sécurité des grands systèmes d’IA.
5. Partage obligatoire d’informations de sécurité par les développeurs d’IA
Les développeurs d’IA devront partager avec le gouvernement américain certaines évaluations de sécurité concernant leurs modèles les plus puissants. Cette mesure, annoncée dans le cadre de l’ordre exécutif présidentiel, vise à renforcer la compréhension des risques et à établir des garde-fous réglementaires.
6. Développement d’une base de données nationale d’incidents liés à l’IA
Une base de données centralisée recueillera les incidents et dysfonctionnements majeurs causés par des systèmes d’IA. Ce dispositif va permettre une analyse transparente des cas problématiques et soutenir l’élaboration de meilleures pratiques.
7. Premières orientations du NIST pour sécuriser les modèles de fondation
En janvier 2024, le NIST a publié des orientations techniques à l’usage des agences et développeurs travaillant avec des modèles de fondation. Ces directives visent à réduire les risques systémiques et à renforcer la confiance dans les systèmes d’IA générative dans les prochaines années.