Dans notre série d’articles consacrés à la législation sur l’intelligence artificielle, nous nous sommes jusqu’à présent concentrés sur ce qui se passe au sein de l’Union européenne. Cependant, dans le contexte mondial dans lequel nous vivons, il est essentiel de prendre en compte les autres acteurs. Aujourd’hui, nous vous expliquons ce qui se passe dans d’autres pays, où la réglementation de l’IA est très différente de ce que nous avons abordé jusqu’à présent.
Les États-Unis et les lois fédérales
Les États-Unis connaissent une situation quelque peu chaotique, puisque la réglementation dépend largement des États. Il n’existe pas de loi fédérale sur l’IA équivalente à l’AI Act — lequel, comme nous l’avons vu, est complété par d’autres normes — mais plutôt un ensemble composé du décret exécutif 14110 sur une IA sûre, sécurisée et fiable (qui encourage des normes, des tests et des contrôles liés à la sécurité nationale), du AI Risk Management Framework du NIST, ainsi que de l’action de nombreuses agences sectorielles (FTC, FDA, SEC, etc.).
La philosophie est plus pragmatique: on laisse l’innovation se développer, puis on corrige par secteur et au cas par cas. L’avantage ? Moins de contraintes initiales. Le risque ? Davantage d’incertitude pour les entreprises opérant dans plusieurs États et dans des secteurs réglementés.
Que se passe-t-il en Chine?
Le cadre réglementaire chinois repose sur trois grands piliers, marqués par un fort contrôle étatique : les algorithmes de recommandation, les deepfakes / technologies de deep synthesis, et les mesures provisoires relatives à l’IA générative de manière plus générale.
L’État dispose de larges prérogatives en matière d’intelligence artificielle, pouvant aller jusqu’à la censure de contenus ou à l’engagement de la responsabilité des plateformes afin de préserver la « stabilité sociale ». Il s’agit d’un modèle flexible, fondé sur des réglementations plus ciblées et adaptées aux différents organismes gouvernementaux.
Le livre blanc du Royaume-Uni
Le Royaume-Uni a opté pour un discours «pro-innovation». Plutôt qu’un grand règlement unique, il a publié un livre blanc en 2023, suivi d’une réponse gouvernementale en 2024, proposant que les régulateurs sectoriels (concurrence, santé, finance, etc.) appliquent des principes communs en matière d’IA dans leurs domaines respectifs.
À cela s’ajoutent des sandboxes réglementaires et un fort investissement dans les infrastructures d’IA, tandis que le débat interne se poursuit sur la nécessité, à terme, de créer une autorité spécifique. Il s’agit d’un modèle intermédiaire entre le laissez-faire américain et le cadre réglementaire européen plus contraignant.
La loi japonaise sur la promotion de l’IA
Le Japon se distingue par son AI Promotion Act, une loi qui établit une stratégie nationale en matière d’intelligence artificielle. Celle-ci vise à encourager l’utilisation de l’IA dans la recherche et développement, les infrastructures et les talents, le tout dans une optique d’utilisation responsable.
Il ne s’agit pas d’une réglementation punitive, mais plutôt d’une approche plus souple, fondée sur des lignes directrices volontaires, tout en posant les bases de sanctions plus strictes à l’avenir.
Par ailleurs, le pays a créé l’« AI Strategy Headquarters », rattaché au bureau du Premier ministre, chargé d’élaborer un AI Basic Plan.
Le Japon s’appuie également sur des lois existantes pour encadrer certains aspects de l’IA, notamment en matière de droits d’auteur ou de protection des données.
Le Canada et la réglementation des systèmes
Au Canada, le projet de loi Artificial Intelligence and Data Act (AIDA), inclus dans le Digital Charter Implementation Act, vise à réglementer les systèmes d’IA susceptibles d’avoir un impact significatif. Il prévoit des règles en matière de sécurité, de non-discrimination, de transparence, de responsabilité, etc.
Cette loi prévoit des sanctions administratives en cas de non-conformité, ainsi que certaines infractions pénales : par exemple, l’utilisation délibérée de données personnelles obtenues illégalement pour entraîner des systèmes d’IA, ou la mise à disposition d’un système en sachant qu’il peut causer un préjudice grave.
On note également l’existence d’un code volontaire pour l’IA générative, destiné à fournir des orientations provisoires en attendant l’adoption d’une réglementation formelle.
Le Brésil et sa stratégie 2024–2028
L’approche suivie par le Brésil est actuellement en cours de mise en œuvre. Le PBIA (Plano Brasileiro de Inteligência Artificial 2024–2028) constitue une stratégie nationale visant à promouvoir l’utilisation de l’IA dans une perspective éthique, sûre et durable.
Il existe également un projet de loi (PL 2338/2023) destiné à créer un cadre réglementaire national pour l’IA. Ce texte propose notamment la création d’un « Système national de régulation et de gouvernance de l’IA » (SIA), coordonné par l’Autorité nationale de protection des données (ANPD).
Du point de vue de la responsabilité, certains universitaires brésiliens ont mis en avant la nécessité d’une réglementation fondée sur le risque, avec des mécanismes adaptés en fonction du potentiel de dommage des systèmes d’IA.
Les cadres volontaires de Singapour
Singapour ne dispose pas d’une loi horizontale sur l’IA, c’est-à-dire d’un texte unique régissant l’ensemble des usages de l’IA, mais s’appuie sur de nombreuses lignes directrices et cadres volontaires.
Parmi eux figure le Model AI Governance Framework (MAIG), qui regroupe des principes pour une gouvernance responsable de l’IA (transparence, supervision humaine, etc.).
Pour l’IA générative, Singapour a publié le « GenAI MAIG Framework », qui propose des recommandations spécifiques concernant des risques tels que les hallucinations, les biais ou la violation des droits d’auteur.
Sa stratégie nationale pour l’IA (NAIS 2.0) réaffirme une approche agile: le gouvernement réexamine régulièrement ses cadres et adapte ses politiques à mesure que la technologie évolue.
Enfin, certaines lois existantes sont également mobilisées pour encadrer des usages spécifiques de l’IA. Par exemple, le Computer Misuse Act peut s’appliquer aux cybercrimes liés à l’IA, et l’Online Criminal Harms Act aux infractions en ligne telles que les deepfakes ou les escroqueries.
Comme on peut le constater, la réglementation de l’IA est aujourd’hui si diverse qu’il est très difficile d’identifier un cadre réglementaire unique. Ce qui est certain, en revanche, c’est que les différents pays progressent de plus en plus sur ces questions.