Legislació IA: Fora de la Unió Europea, és tot jauja?

En la nostra sèrie d’articles sobre legislació de la Intel·ligència Artificial fins al moment ens hem centrat en el que succeeix a la Unió Europea, però en l’escenari global en el qual vivim, hem de tenir en compte a la resta de players. Avui t’expliquem el que està succeint en altres països, on la regulació de la IA és molt diferent del que hem tractat fins ara.

Els Estats Units i les lleis federals

Els Estats Units viu una situació una miqueta caòtica, ja que la regulació es regeix segons l’estat. No existeix una llei federal de IA equivalent a l’AI Act, que com hem vist es complementa amb altres normatives, sinó una mescla de l’Ordre Executiva 14110 sobre IA segura i fiable (que impulsa estàndards, proves i controls de seguretat nacional), l’AI Risk Management Framework de NIST i l’acció de múltiples agències sectorials (FTC, FDA, SEC, etc.).

La filosofia és més pragmàtica: es deixa espai a la qual es faci i es corregeix per sectors i per casos. Avantatge? Menys cotilla inicial. Risc? Més incertesa per a empreses que operen en diversos estats i àmbits regulats.

Què succeeix a la Xina?

La normativa es basa en 3 grans pilars amb fort control estatal: els algorismes de recomanació, els deepfakes/*deep synthesis i les mesures provisionals sobre IA generativa en general.

L’Estat té grans atribucions en matèria d’intel·ligència artificial que poden arribar a censurar continguts o invocar a la responsabilitat de les plataformes per a mantenir “estabilitat social”. Un model flexible de regulacions més petites que s’adapten a diferents organismes governamentals.

El llibre blanc del Regne Unit

El Regne Unit ha optat per un discurs “pro-innovation”: en lloc d’un gran reglament únic, ha publicat un llibre blanc (2023) i una resposta de govern (2024) proposant que siguin els reguladors sectorials (competència, salut, finances, etc.) els qui apliquin principis comuns de IA en els seus àmbits.

A això se sumen sandboxes reguladors i una aposta forta per infraestructures de IA, mentre creix el debat intern sobre si, a la llarga, farà falta una autoritat específica. És un model intermedi entre el laissez faire estatunidenc i el big-*law europeu.

L’AI Promotion Act del Japó

En el cas del Japó destaca la seva AI Promotion Act, una llei que estableix una estratègia a nivell nacional per a la Intel·ligència Artificial, que el que cerca és impulsar el seu ús en R+D, infraestructura i talent, tot això des d’un ús responsable.

Aquesta regulació no es tracta d’una llei punitiva, sinó que té un enfocament més soft, amb guies voluntàries i estableix les bases per a imposar sancions més fortes.

A més s’ha creat la “AI Strategy Headquarters”, dependent de l’oficina del Primer Ministre, equip que ha d’elaborar un AI Basic Pla.

Al país nipó també es basen en lleis ja existents per a regular algunes qüestions, com és el cas dels drets d’autor o la protecció de dades.

El Canadà i la regulació de sistemes

En el cas del Canadà s’ha proposat l’Artificial Intelligence and Data Act (AIDA) que està recollit dins del “Digital Charter Implementation Act”. L’AIDA busca regular sistemes de IA que poden tenir impacte significatiu, amb normes sobre seguretat, no discriminació, transparència, responsabilitat, etc.

Dins d’aquesta norma es preveuen sancions administratives per incompliments, i també alguns delictes penals: per exemple, l’ús deliberat de dades personals obtingudes il·legalment per a entrenar IA, o fer disponible un sistema sabent que pot causar mal greu.

També destaca l’existència d’un codi voluntari per a IA generativa, que es s’encarrega d’oferir algunes normes mentre no es realitza un regulació formal.

El Brasil i la seva estratègia 2024-2028

El pla seguit al Brasil està en ple procés d’implementació. PBIA (Pla Brasiler d’Intel·ligència Artificial 2024-2028), es tracta d’una estratègia a nivell nacional que busca promoure l’ús de la IA des d’una perspectiva, ètica, segura i sostenible.

També hi ha un projecte de llei (PL 2338/2023) per a crear un marc regulador nacional per a la IA. Aquest projecte proposa, per exemple, la creació d’un “Sistema Nacional de Regulació i Governança de IA” (SIA), amb coordinació de l’Autoritat de Protecció de Dades (ANPD).

Des de la perspectiva de responsabilitat, alguns acadèmics brasilers han plantejat la necessitat d’una regulació basada en el “risc”, amb mecanismes reguladors adaptats segons el potencial mal del sistema de IA.

Els marcs voluntaris de Singapur

Singapur no té una llei horitzontal per a IA, és a dir, no hi ha una llei única que reguli tots els usos de IA, però sí moltes guies i marcs voluntaris.

Per exemple, existeix el Model AI Governance Framework (MAIG), que és un conjunt de principis per al govern responsable de la IA (transparència, supervisió humana, etc.). 

Per a IA generativa, han publicat un “GenAI MAIG Framework” amb recomanacions específiques sobre riscos com a al·lucinacions, biaix o infracció de copyright.

La seva estratègia nacional de IA (NAIS 2.0) reafirma un enfocament àgil: el govern revisa regularment els seus marcs i adapta les polítiques segons evoluciona la tecnologia. 

Així mateix, algunes lleis existents també s’usen per a regular uns certs usos de IA: per exemple, el Computer Misuse Act pot aplicar-se per a crims informàtics connectats amb IA; i l’En línia Criminal Harms Act per a delictes en línia com deepfakes o estafes.

Com veiem, la regulació sobre IA actualment és tan diversa que és molt complicat esclarir un únic marc regulador, però el que sí és clar, és que els diferents països estan avançant cada vegada més en aquestes qüestions.

Artículos relacionados