La compañía estadounidense busca participar de las discusiones alrededor de la regulación sobre la inteligencia artificial,
El gigante tecnológico estadounidense Google cree que la regulación en materia de inteligencia artificial está aun en etapa temprana, aunque la compañía inició desde hace un tiempo el camino para desarrollar una tecnología responsable, a través de un Comité de Ética interno a la compañía y de principios para el desarrollo y uso de la IA.
“Desde el punto de vista de Google todavía estamos en una etapa muy temprana en cuanto a la regulación. En su momento, daremos un punto de vista de cuál debería ser la mejor forma”, dijo David Ruiz, líder de Práctica de Datos, Análisis e Inteligencia Artificial en Google Cloud México.
La compañía busca participar de las discusiones alrededor de la regulación sobre la inteligencia artificial, junto con otras organizaciones como universidades que también están involucradas en esta tecnología. Además, de acuerdo con Fernanda Jolo, jefa de Datos e Inteligencia Artificial de Google, el gigante tecnológico promueve que sus clientes usen sus productos de IA con base en sus propios principios éticos.
REGULACIÓN DE LA IA
Los gobiernos de varios países y jurisdicciones han iniciado procesos para regular el desarrollo y uso de la inteligencia artificial.
La Unión Europea lleva discutiendo al menos dos años un reglamento para regular esta tecnología que está basado en los riesgos que implican sus aplicaciones; en China, las Medidas Provisionales para la Gestión de Servicios de Inteligencia Artificial Generativa de China entraron en vigor este 15 de agosto; mientras que en Chile y Brasil también se discute una regulación en la materia.
En el caso de México, Google ha entrado en contacto con la Alianza Nacional de Inteligencia Artificial (ANIA), organización fundada por la senadora del Partido Verde, Alejandra Lagunes, que busca impulsar una regulación alrededor de la Inteligencia Artificial, para la cual ha obtenido acompañamiento de la Unesco.
“Yo creo que, para regular algo, lo tienes que entender de manera profunda, entonces hay un gran proceso de educación y creo que esa actividad te lleva un tiempo indefinido, pero ese es el primer paso”, dijo Julio Velázquez, director de Google Cloud en México.
Google publicó sus siete principios para el desarrollo de aplicaciones de Inteligencia Artificial en 2018 y los ha ido actualizando cada año desde su lanzamiento. Estos principios son:
Ser socialmente beneficiosa.
Evitar crear o reforzar prejuicios injustos.
Ser construida y probada para la seguridad.
Sea responsable ante las personas.
Incorporar principios de diseño de privacidad.
Mantener altos estándares de excelencia científica.
Estar disponible para usos que estén de acuerdo con estos principios.
La compañía también se ha comprometido a no diseñar ni desarrollar aplicaciones que causen o puedan causar un daño en general; armas u otras tecnologías cuyo propósito sea causar lesiones a las personas; tecnologías que recolecten o usen información para vigilancia; así como tecnologías cuyo propósito contraviene los derechos humanos.
“La intención es estar en comunicación con las organizaciones y con las instancias públicas y privadas que tienen el interés de encontrar una regulación. Nuestros equipos de Políticas Públicas constantemente están analizando el poder abrir puentes y canales de comunicación con las instituciones”, dijeron los directivos de Google.