ESTOS SON LOS PRINCIPALES PELIGROS QUE ESCONDE LA INTELIGENCIA ARTIFICIAL, SEGÚN BILL GATES

La inteligencia artificial (IA) es capaz de lo mejor y de lo peor. Igual ayuda a luchar contra el cambio climático y las enfermedades que, de acuerdo con algunos empresarios y docentes, puede poner en riesgo, incluso, la supervivencia humana. Bill Gates, padre de Microsoft, comprende las preocupaciones. Aunque no cree que los potenciales perjuicios que puede provocar la última tecnología de moda sean muy distintas de las que trajeron, en su momento, los ordenadores o internet.

«El futuro de la IA no es tan sombrío como piensan algunas personas, ni tan optimista como piensan otras. Los riesgos son reales, pero soy optimista de que se pueden manejar», ha afirmado el magnate y filántropo en una reciente publicación realizada en su blog personal.

FALSIFICACIONES
Gates apunta que el ser humano siempre ha contado con capacidad para la generación de desinformación. Asimismo, reconoce que con el desarrollo de la tecnología la posibilidad de hacer pasar una falsedad por un hecho real ha aumentado notablemente. La inteligencia artificial ya ha sido empleada activamente para poner a líderes políticos en situaciones increíbles. Posiblemente, el caso más relevante en los últimos años ha sido la publicación de un video ‘deepfake’ de Zelenski en el que aparece compartiendo su presunta intención de rendir Ucrania a Rusia.

«Ciertamente no hemos resuelto el problema de la desinformación y los ‘deepfakes’», reconoce el empresario. A continuación, apunta que, con el paso del tiempo, los usuarios han ido aprendiendo a «no tomar todo al pie de la letra»: «A medida que las ciberestafas se volvieron más sofisticadas, también lo hicieron muchos de sus objetivos. Tendremos que desarrollar el mismo músculo para los ‘deepfakes’».

La otra cosa que me da esperanzas es que la IA puede ayudar a identificar falsificaciones profundas y crearlas. Intel, por ejemplo, ha desarrollado un detector de falsificación profunda , y la agencia gubernamental DARPA está trabajando en tecnología para identificar si se ha manipulado el video o el audio», prosigue Gates. De acuerdo con la Ley de IA de la UE, que se espera que sea definitivamente aprobada antes de que termine 2023, las empresas desarrolladoras de sistemas como ChatGPT estarán obligadas a marcar los resultados de sus máquinas como generados por inteligencia artificial.

CIBERCRIMEN
Si el cibercrimen, o naciones estado, pueden apoyarse en sistemas de IA para engañar a los usuarios; no cabe duda de que también pueden aprovechar la tecnología para mejorar sus estafas y el desarrollo de código malicioso. «Los modelos de IA acelerarán este proceso al ayudar a los piratas informáticos a escribir un código más efectivo. También podrán usar información pública sobre personas, como dónde trabajan y quiénes son sus amigos, para desarrollar ataques de ‘phishing’ más avanzados que los que vemos hoy», dice Gates.

No obstante, el magnate apunta que la IA también permite que los encargados de defender internet cuenten con mejores herramientas para cumplir con su labor. Esta es una de las razones por las que se muestra en contra de desacelerar el desarrollo de la tecnología.

TRABAJO
Bill Gates no cree que la IA vaya a acabar con un gran número de puestos de trabajo. Por el contrario, espera que ayude a hacer a los empleados más eficientes.

Con todo, el empresario reconoce que «algunos trabajadores necesitarán apoyo y capacitación a medida que hacemos esta transición hacia un lugar de trabajo impulsado por IA»: «Esa es una función de los gobiernos y las empresas, y deberán administrarla bien para que los trabajadores no se queden atrás».

DESINFORMACIÓN
En su publicación, Gates también se refiere a las actuales alucinaciones que sufren sistemas como ChatGPT o Bard cuando mantienen conversaciones con los usuarios, en las que, de forma recurrente, comparten información que es falsa. «Otro riesgo de la inteligencia artificial es que refleja o incluso empeora los prejuicios existentes contra personas de ciertas identidades de género, razas, etnias, etc», señala el cofundador de Microsoft.

No obstante, Gates espera que las empresas de desarrollo solventen este problema con el tiempo. «Aunque algunos investigadores piensan que las alucinaciones son un problema inherente, no estoy de acuerdo. Soy optimista de que, con el tiempo, se puede enseñar a los modelos de IA a distinguir la realidad de la ficción. OpenAI, por ejemplo, está haciendo un trabajo prometedor en este frente«, dice.

EDUCACIÓN
Bill Gates también apunta que los profesores deben encontrar la forma de utilizar la IA en su propio beneficio. Por ejemplo, aprovechando los errores de la máquina para «generar artículos y luego trabajar con sus alumnos para verificar los hechos».

Respecto a las posibilidades de que los alumnos recurran a soluciones como ChatGPT para copiar, el magnate apunta que «ya existen herramientas de IA que están aprendiendo a saber si algo fue escrito por una persona o por un ordenador, para que los maestros puedan saber cuándo sus alumnos no están haciendo su propio trabajo». El problema es que estos sistemas, por el momento, tienen importantes limitaciones. A día de hoy, no son capaces de determinar con suficiente seguridad si un texto ha sido creado por una IA o por una máquina.

Leave a Reply

Your email address will not be published. Required fields are marked *