Lorsque nous pensons à l’intelligence artificielle, la première chose qui nous vient à l’esprit est généralement Chat GPT, ou la génération d’images, de vidéos, de musique, etc. Ensuite, nous pensons peut-être à l’apprentissage automatique, aux réseaux neuronaux ou aux robots. Mais il y a une question qui est souvent laissée de côté dans un premier temps, alors qu’elle est cruciale pour que cette révolution technologique puisse se poursuivre en toute sécurité: sa réglementation.
Le cadre juridique ou réglementaire qui régit l’IA n’est pas une question sans importance, car nous parlons ici de questions qui nous concernent de plus en plus : les limites des droits fondamentaux, les cas possibles de discrimination, la désinformation ou l’opacité, l’utilisation de deepfakes ou de voix clonées… C’est pourquoi nous avons décidé de créer une série d’articles pour aborder la manière dont cette question est traitée dans différentes législations.
Sur la scène mondiale, les différents acteurs optent pour des approches différentes, car chaque zone dispose d’une réglementation juridique différente. Aujourd’hui, nous nous concentrerons sur l’approche adoptée par l’Union européenne.
L’approche européenne, l’AI Act
L’UE adopte une approche fondée sur les risques, les droits fondamentaux et un marché unique numérique, contrairement à d’autres pays qui ont opté pour le « laisser-faire » ou des systèmes de contrôle étatique. Cette année a vu l’entrée en vigueur de la loi dite «AI Act», qui vise à servir de cadre législatif pour l’intelligence artificielle.
Mais l’adoption de l’IA Act a été un processus long et controversé.
Premiers pas
En août dernier, nous avons franchi le cap à mi-parcours, date à laquelle les différents pays de l’Union devaient présenter aux autorités nationales compétentes, chargées de cette question, leurs propositions et les communiquer à la Commission.
Au cours de ce mois, la date limite a également été fixée pour que les États membres établissent des règles relatives aux sanctions et aux amendes, les notifient à la Commission et garantissent leur bonne application. En outre, toute la réglementation relative aux obligations des modèles à usage général, comme c’est le cas de Chat GPT, est entrée en vigueur.
En d’autres termes, le terrain est désormais prêt pour qu’une réglementation européenne unifiée sur l’IA soit non seulement approuvée, mais aussi pleinement appliquée. Ce processus devrait aboutir en 2027.
Et qu’en sera-t-il jusqu’en 2027?
Même si la mise en œuvre de cette réglementation devrait s’achever en 2027, certains articles sont déjà en vigueur.
C’est le cas de l’article 5 de la loi IA Act qui, depuis février dernier, réglemente les interdictions en matière d’intelligence artificielle:
- Manipulation et exploitation des vulnérabilités: les systèmes d’IA qui manipulent les personnes de manière subliminale ou trompeuse sont interdits. Il en va de même pour ceux qui exploitent les vulnérabilités des personnes ou causent des dommages importants.
- Notation sociale: l’UE interdit les systèmes qui notent des personnes ou des groupes en fonction de différentes caractéristiques personnelles (directes ou déduites) ou de leur comportement, et qui utilisent cette notation pour leur réserver un traitement injustifié ou disproportionné.
- Policing prédictif: il est interdit d’utiliser l’IA pour prédire qui est le plus susceptible de commettre un crime en se basant uniquement sur son profil, ses traits ou ses caractéristiques personnelles. Cependant, l’IA est autorisée pour appuyer une évaluation lorsqu’il existe déjà des faits objectifs et vérifiables d’une activité criminelle.
- Bases de données de reconnaissance faciale: l’utilisation, la création ou l’extension de bases de données de reconnaissance faciale de manière massive et non sélective est interdite en l’absence d’une base juridique claire.
- Lecture des émotions au travail et dans l’éducation: Oui, cela peut être utilisé pour des raisons médicales ou de sécurité, mais tenter de détecter les émotions dans les environnements professionnels ou éducatifs peut être considéré comme trop intrusif et peu fiable.
- Catégorisation biométrique des caractéristiques particulièrement sensibles: race, opinions politiques, croyances religieuses, vie sexuelle, etc. À titre de nuance, le marquage ou le filtrage des données biométriques acquises légalement pour appliquer une loi est exclu.
- Identification biométrique à distance en temps réel dans les espaces publics à des fins policières, sauf dans des cas spécifiques tels que la recherche de victimes spécifiques (enlèvements, traite des êtres humains, personnes disparues, etc.), la prévention de menaces graves, imminentes et spécifiques d’attentats terroristes ou la localisation ou l’identification de suspects de crimes graves.
- Si une IA était déjà illégale en raison de problèmes liés au RGPD ou à toute autre loi, elle le restera indépendamment de l’AI Act.
Les bases d’une réglementation complète dans les États membres de l’Union européenne sont claires, mais ce n’est que le début de notre série d’articles sur la réglementation de l’IA. Nous pouvons déjà commencer à entrevoir le panorama complexe que représente la tentative de réglementer une technologie qui offre de nouvelles avancées pratiquement chaque jour.



