La Unión Europea ha dado esta semana lo que puede considerarse como el pistoletazo de salida para crear definitivamente un marco regulatorio en torno a las nuevas herramientas de inteligencia artificial. El Parlamento Europeo, tras un mes de deliberación, ha aprobado por mayoría comenzar un proceso de regulación en el que ahora se involucrarán los diferentes miembros de la Unión, pero que parte de unas guías definidas y que se han creado a partir de una propuesta de la Comisión Europea, cuyo primer borrador se presentó hace ya dos años.
El Parlamento mantiene todos los elementos de esta propuesta, pero ha añadido varias modificaciones para tratar de regular, también, los motores generativos como ChatGPT o Bard y los sistemas de inteligencia artificial de propósito general, es decir, las inteligencias artificiales que se diseñan para actuar de forma parecida a la inteligencia humana. Estas herramientas se han vuelto increíblemente populares en los últimos meses y, como es lógico, no estaban en la propuesta original de la Comisión.
La intención del Parlamento es cubrir varios frentes con la nueva legislación, que podría empezar a tomar forma a finales de este año.
Fiel al espíritu de la iniciativa de la Comisión, prohibirá, por ejemplo, el uso de inteligencia artificial en sistemas de identificación biométrica en tiempo real y limitará su uso en grabaciones previas a fuerzas de seguridad que cuenten con una autorización judicial. También impedirá que los vídeos grabados por cámaras de seguridad se puedan utilizar para extraer contenido con el que entrenar sistemas de reconocimiento facial.
Estas medidas, según la comisaria europea Margarethe Vestager, están enfocadas a prevenir los sesgos raciales que han demostrado tener este tipo de herramientas.
Otro punto importante de la futura legislación es que añade a la lista de herramientas de inteligencia artificial de “alto riesgo” los algoritmos que usan las redes sociales para recomendar diferentes contenidos. Al entrar en esta lista, se espera que estos algoritmos tengan una mayor supervisión por parte de los diferentes gobiernos y sean auditados con frecuencia.
Por último, el texto aprobado también especifica que los sistemas generativos como ChatGPT o Bard tendrán que cumplir con ciertos requisitos de transparencia. El contenido que salga de ellos tendrá que ser fácilmente identificable como contenido generado por una inteligencia artifical, usando marcas de agua u otras tecnologías similares, y tener protecciones contra la generación de contenido ilegal.
Las compañías responsables de estos modelos también tendrán que revelar qué fuentes se usaron durante el entrenamiento inicial y asegurarse de que este no infringe la legislación sobre derechos de autor.
“Queremos que se aproveche el potencial positivo de la IA para la creatividad y la productividad, pero también lucharemos para proteger nuestra posición y contrarrestar los peligros para nuestras democracias y libertades”, explica el parlamentario italiano Brando Benifeim.