Legislación IA: Fuera de la Unión Europea, ¿es todo jauja?

En nuestra serie de artículos sobre legislación de la Inteligencia Artificial hasta el momento nos hemos centrado en lo que sucede en la Unión Europea, pero en el escenario global en el que vivimos, debemos tener en cuenta al resto de players. Hoy te explicamos lo que está sucediendo en otros países, donde la regulación de la IA es muy diferente a lo que hemos tratado hasta ahora.

Estados Unidos y las leyes federales

Estados Unidos vive una situación un tanto caótica, ya que la regulación se rige según el estado. No existe una ley federal de IA equivalente al AI Act, que como hemos visto se complementa con otras normativas, sino una mezcla de la Orden Ejecutiva 14110 sobre IA segura y fiable (que impulsa estándares, pruebas y controles de seguridad nacional), el AI Risk Management Framework de NIST y la acción de múltiples agencias sectoriales (FTC, FDA, SEC, etc.).

La filosofía es más pragmática: se deja espacio a la que se haga y se corrige por sectores y por casos. ¿Ventaja? Menos corsé inicial. ¿Riesgo? Más incertidumbre para empresas que operan en varios estados y ámbitos regulados.

¿Qué sucede en China?

La normativa se basa en 3 grandes pilares con fuerte control estatal: los algoritmos de recomendación, los deepfakes/deep synthesis y las medidas provisionales sobre IA generativa en general.

El Estado tiene grandes atribuciones en materia de inteligencia artificial que pueden llegar a censurar contenidos o invocar a la responsabilidad de las plataformas para mantener “estabilidad social”. Un modelo flexible de regulaciones más pequeñas que se adaptan a diferentes organismos gubernamentales.

El libro blanco de Reino Unido

El Reino Unido ha optado por un discurso “pro-innovation”: en lugar de un gran reglamento único, ha publicado un libro blanco (2023) y una respuesta de gobierno (2024) proponiendo que sean los reguladores sectoriales (competencia, salud, finanzas, etc.) quienes apliquen principios comunes de IA en sus ámbitos.

A esto se suman sandboxes regulatorios y una apuesta fuerte por infraestructuras de IA, mientras crece el debate interno sobre si, a la larga, hará falta una autoridad específica. Es un modelo intermedio entre el laissez-faire estadounidense y el big-law europeo.

La AI Promotion Act de Japón

En el caso de Japón destaca su AI Promotion Act, una ley que establece una estrategia a nivel nacional para la Inteligencia Artificial, que lo que busca es impulsar su uso en I+D, infraestructura y talento, todo ello desde un uso responsable.

Esta regulación no se trata de una ley punitiva, sino que tiene un enfoque más soft, con guías voluntarias y sienta las bases para imponer sanciones más fuertes.

Además se ha creado la “AI Strategy Headquarters”, dependiente de la oficina del Primer Ministro, equipo que debe elaborar un AI Basic Plan.

En el país nipón también se basan en leyes ya existentes para regular algunas cuestiones, como es el caso de los derechos de autor o la protección de datos.

Canadá y la regulación de sistemas

En el caso de Canadá se ha propuesto la Artificial Intelligence and Data Act (AIDA) que está recogido dentro del “Digital Charter Implementation Act”. La AIDA busca regular sistemas de IA que pueden tener impacto significativo, con normas sobre seguridad, no discriminación, transparencia, responsabilidad, etc.

Dentro de esta norma se prevén sanciones administrativas por incumplimientos, y también algunos delitos penales: por ejemplo, el uso deliberado de datos personales obtenidos ilegalmente para entrenar IA, o hacer disponible un sistema sabiendo que puede causar daño grave.

También destaca la existencia de un código voluntario para IA generativa, que se se encarga de ofrecer algunas normas mientras no se realiza un regulación formal.

Brasil y su estrategia 2024-2028

El plan seguido en Brasil está en pleno proceso de implementación. PBIA (Plano Brasileño de Inteligencia Artificial 2024-2028), se trata de una estrategia a nivel nacional que busca promover el uso de la IA desde una perspectiva, ética, segura y sostenible.

También hay un proyecto de ley (PL 2338/2023) para crear un marco regulatorio nacional para la IA. Este proyecto propone, por ejemplo, la creación de un “Sistema Nacional de Regulación y Gobernanza de IA” (SIA), con coordinación de la Autoridad de Protección de Datos (ANPD).

Desde la perspectiva de responsabilidad, algunos académicos brasileños han planteado la necesidad de una regulación basada en el “riesgo”, con mecanismos regulatorios adaptados según el potencial daño del sistema de IA. 

Los marcos voluntarios de Singapur

Singapur no tiene una ley horizontal para IA, es decir, no hay una ley única que regule todos los usos de IA, pero sí muchas guías y marcos voluntarios. 

Por ejemplo, existe el Model AI Governance Framework (MAIG), que es un conjunto de principios para el gobierno responsable de la IA (transparencia, supervisión humana, etc.). 

Para IA generativa, han publicado un “GenAI MAIG Framework” con recomendaciones específicas sobre riesgos como alucinaciones, sesgo o infracción de copyright.

Su estrategia nacional de IA (NAIS 2.0) reafirma un enfoque ágil: el gobierno revisa regularmente sus marcos y adapta las políticas según evoluciona la tecnología. 

Asimismo, algunas leyes existentes también se usan para regular ciertos usos de IA: por ejemplo, el Computer Misuse Act puede aplicarse para crímenes informáticos conectados con IA; y la Online Criminal Harms Act para delitos en línea como deepfakes o estafas.

Como vemos, la regulación sobre IA actualmente es tan diversa que es muy complicado esclarecer un único marco regulatorio, pero lo que sí está claro, es que los diferentes países están avanzando cada vez más en estas cuestiones.

Artículos relacionados