Capital Coahuila
WWW.CAPITALCOAHUILA.COM.MX
Sábado 24 de Febrero 2024
UnidadInvestigación
| | |

La inteligencia artificial se pone a platicar

Rubén Aguilar Valenzuela. Foto: Especial

Rubén Aguilar Valenzuela. Foto: Especial

26 de Enero 2023

RUBÉN AGUILAR VALENZUELA

Los ingenieros Noam Shazeer y Daniel de Freitas, que dejaron la empresa Google, han fundado la plataforma de conversación Character.ai y creado un robot que puede sostener una conversación fluida.

Manuel G. Pascual (El País, 13.01.23) da cuenta de cómo estos dos innovadores tecnológicos están haciendo realidad un sueño que se había planteado la ciencia ficción; que los seres humanos hablen con las máquinas.

Ellos aseguran que entre las aplicaciones futuras de su modelo está el entretenimiento, la educación, el aprendizaje de idiomas “y otras que todavía no hemos imaginado”.

Por ahora su robot puede mantener conversaciones ágiles con versiones artificiales creíbles de otras personas, vivas o muertas, reales o ficticias. Dice Pascual que el resultado es convincente, siempre que no se lancen preguntas tramposas.

Character.ai, afirma el periodista, utiliza modelos de aprendizaje automático que procesan grandes cantidades de texto para entrenar al algoritmo de forma que sea capaz de predecir la palabra que tenga más probabilidades de seguir a las que le preceden.

Shazeer y Freitasse se propusieron que el robot estuviera especializado en imitar a personajes. Su idea, que desarrollaron en ratos libres mientras trabajaban en Google, llamó la atención. Se convirtió en el proyecto LaMDA, acrónimo de modelo de lenguaje para aplicaciones de diálogo.

Estos creadores insisten, para que no haya dudas, que su herramienta “no es una fuente de información fiable” porque “todo lo que dicen los personajes es inventado”. Por ahora “estos sistemas no están diseñados para la verdad, sino para mantener conversaciones plausibles”.

Esta herramienta permite conversar con personajes ya construidos, como Julio César, Sócrates, Elon Musk o Harry Potter, pero también diseñar uno propio. En este último caso, se puede hacer una configuración rápida, describiéndolo en un par de líneas.

Pascual en octubre pasado, sobre el mismo tema, entrevistó a  Blaise Agüera y Arcas, vicepresidente de Investigación de Google Research y autoridad mundial en inteligencia artificial (El País, 08.10.22).

Este le dice que “como neurocientífico computacional, creo que es posible que una máquina se comporte como nosotros, en el sentido de que la computación es capaz de simular cualquier tipo de proceso físico”.

Sobre LaMDa afirma que “he interactuado con muchísimos sistemas de este tipo a lo largo de los años, y con LaMDA hay una diferencia enorme. Piensas: ¡realmente entiende conceptos!. Casi todo el rato parece que estás teniendo una conversación real”.

Y añade que la máquina “la mayor parte del tiempo demuestra un entendimiento profundo de lo que está diciendo y, de algún modo, responde de forma creativa. Nunca había visto nada similar. Me ha dado la sensación de que estamos mucho más cerca del sueño de la inteligencia artificial general [la que iguala o supera al ser humano]”.

“Yo no creo, dice Agüera y Arcas, que una herramienta como LaMDA pueda tener jamás capacidad de juicio moral”, pero sí que las máquinas pueden entender conceptos. Esto en base a “la premisa fundamental en la que se basa la neurociencia computacional, que durante los últimos 70 años nos ha ayudado a entender algo mejor cómo funciona el cerebro”.

El investigador plantea que “la idea de que una secuencia de predicción pueda contener inteligencia o entendimiento puede resultar chocante. Pero los neurocientíficos dicen que la predicción es la función clave de los cerebros” y en razón de esto mismo se puede decir que las máquinas tienen entendimiento.

Pascal le pregunta si ¿pueden las máquinas aprender a comportarse? y este responde: “La parte de entendimiento descansa en ideas como que no hay que hacer daño a la gente. Y eso se puede programar en el modelo, de forma que si le preguntas a uno de estos algoritmos si un personaje de la historia se ha portado bien o mal, el modelo puede entender los conceptos relevantes y dar respuestas apropiadas”.

Para el funcionario de Google “hay cosas que todavía faltan, entre ellas formar recuerdos. Las máquinas que hablan son incapaces: pueden retener alguna cosa a corto plazo, pero no pueden crear memorias narrativas, algo para lo que usamos el hipocampo. Los próximos cinco años estarán llenos de sorpresas”.

La inteligencia artificial es una realidad presente todos los días en el mundo de las comunicaciones y cada vez lo será más. El uso de los algoritmos para hacer llegar mensajes a las diversas audiencias es práctica común. Las oficinas de comunicación de gobierno deben adentrarse en el uso de la inteligencia artificial.

 

Twitter: @RubenAguilar