La Inteligencia Artificial está evolucionando, pero aunque parece que ha alcanzado capacidades muy altas, la realidad es que esta tecnología no es tan avanzada y apenas es más inteligente que un perro, afirmó Yann LeCun, científico jefe de IA en Meta.
De acuerdo con el científico, quien habló durante una conferencia en el evento Viva Tech, en París, los sistemas de IA como ChatGPT se basan en modelos a partir de los cuales toma millones de datos para entrenarlos y responder a las peticiones que una persona les hace, como si se tratara de una mascota.
“Estos sistemas aún son muy limitados, no tienen ninguna comprensión de la realidad subyacente del mundo real, porque están puramente entrenados en texto, una gran cantidad de texto”, comentó LeCun.
También resaltó que una buena parte del conocimiento humano no tiene una relación con el lenguaje, sino que forma parte de la experiencia humana y esta no puede ser capturada por los sistemas de Inteligencia Artificial.
Al respecto, el experto ejemplificó que si bien la IA podría pasar un examen del Colegio de Abogados de Estados Unidos, no tiene la capacidad de aprender algunas capacidades de la vida diaria que un niño podría aprender en 10 minutos.
“Esto lo que te dice es que nos falta algo realmente grande para alcanzar no sólo la inteligencia a nivel humano, sino incluso la inteligencia canina”, destacó LeCun, quien agregó que actualmente la empresa está investigando formas de entrenar a la IA en otros niveles, como el video.
Por otra parte, LeCun resaltó que en el futuro a largo plazo, la inteligencia artificial sí podría ser más inteligente que los humanos, sin embargo, hizo hincapié en que esto no debe ser visto como algo peligroso, sino intentar cambiar el enfoque para encontrar la manera de sacar provecho de eso.
“No debemos ver esto como una amenaza, debemos verlo como algo muy beneficioso. Cada uno de nosotros tendrá un asistente de IA, será como un personal para ayudarlo en su vida diaria que es más inteligente que usted”, dijo.
No obstante, para cumplir con esas medidas, el científico señaló que los sistemas deben crearse bajo la perspectiva de ser “controlables y básicamente subordinados a los humanos”, aunque también descartó el temor de que los robots dominen el mundo.
“Un miedo que ha sido popularizado por la ciencia ficción es que si los robots son más inteligentes que nosotros, querrán dominar el mundo. Pero no hay correlación entre ser inteligente y querer dominar”, concluyó LeCun.
Este enfoque se opone al de otras personas relacionadas a la tecnología, como Elon Musk, quien ha dicho que si la IA no se controla, esta podría representar un peligro para la sociedad. Incluso el propio Musk la definió como “uno de los mayores riesgos para el futuro de la civilización”.