Expresiones de la Aldea, La Aldea Antigua, La Aldea y el Mundo, Notas Centrales, San Luis, Tertulias de la Aldea

Hasta que la inteligencia nos separe

La investigación científica de la IA lleva décadas en San Luis. El Dr. Marcelo Errecalde describe y detalla de qué tratan estos modelos computacionales tras el auge de ChatGPT

Gabriela Pereyra

El lanzamiento y acceso gratuito de la inteligencia artificial (IA) ChatGPT 3 despertó la curiosidad de diferentes usuarios, entre los que hay ciudadanos comunes, habitantes de la “opinología” y expertos.

En San Luis el estudio de estos modelos lleva 30 años y participan investigadores de renombre representando a la Universidad Nacional de San Luis, a la provincia y al país. A veces este trabajo es silencioso hasta que aparecen avances de impacto.

Marcelo Errecalde es Doctor en Ciencias de la Computación especializado en Inteligencia Artificial. Algunas de sus investigaciones las desarrolla desde el Laboratorio de Investigación y Desarrollo en Inteligencia Computacional (LIDIC) de la UNSL.

Estos proyectos han participado de tareas científicas que se plantean a nivel mundial, detección de casos de depresión en la web, detección anticipada de problemas de salud mental, tendencias al suicidio, detección de gente con adicción a juegos, y en todas las participaciones obtuvieron premios destacados desde 2017. Compiten con científicos de Estados Unidos, Alemania, Canadá, Francia, Rusia y muchos otros países.

Han trabajado para la detección de fallas de calidad de artículos de Wikipedia. También colaboraron con una asociación en Estados Unidos que se encargaba de detener pedofilia. Se encuentran trabajando en el análisis de llamadas de emergencia al 911 en Ecuador.

“Es un sistema de asistencia a los operadores, la idea es que al recibir la llamada realiza la transcripción, trata de entender cuál es la emergencia, pretende agilizar la tarea del operador humano, sobre todo para los de menor experiencia, lo ideal sería que le muestre de una forma organizada la información, sugiera las preguntas que tiene que hacer, las recomendaciones, pero todavía no estamos pensando en automatizarlo. En general la inteligencia artificial tiene ese proceso, primero actúa como asistente después va automatizando algunas tareas”, describe Errecalde.

Más allá del debate ocasionado sobre el uso de las IA, Marcelo y sus colegas anticipan prioridades: “nosotros estamos trabajando en una cuestión que se llama Inteligencia Artificial Inclusiva, que atiende a cómo vos desarrollas sistemas de inteligencia artificial, desde el origen ya tomás en cuenta qué personas va a afectar y verificás si están representados en los datos o no, pasa que si los datos sobre los que se entrena están sesgados, por ejemplo con sexismo, color de piel, elección sexual, no es un problema de la inteligencia sino de estas decisiones previas”. En relación con esto él distingue entre el sesgo intencional y el sesgo por desconocimiento.

“Queremos que sea inclusivo en el sentido de que no deje sectores afuera y trabajamos con un concepto llamado human in the loop, significa que en el desarrollo del sistema tenés integrada a la persona que va a formar parte de esos productos. Entonces, si estoy haciendo una aplicación para que le ayude a un jubilado que después no lo deje afuera porque no sabe cómo usarlo. Es dar una visión humana de esta cuestión”, detalla Marcelo.


El doctor acerca una mirada en la que afirma que los tecnócratas no deberían trabajar aislados, sin conversar con otras disciplinas. De hecho, en su larga experiencia siempre intenta la consulta interdisciplinaria, por ejemplo, con las Ciencias Sociales.

Imagen generada por IA Midjourney, a partir de este artículo.

¿De dónde y cómo surgen este tipo de Inteligencias Artificiales?

Un amigo le comentó que Fito Páez declaró que la IA nunca iba a lograr un flaco Spinetta. Marcelo Errecalde riendo cuenta su respuesta: “pero podemos hacer un Spinetta, mezclado con la Mona Jiménez y Bizarrap”.


“ChatGPT es una red neuronal, una arquitectura de red neuronal, un desarrollo que no es tan reciente. Esto arranca del tipo de arquitecturas que se llaman transformers. De ahí viene el nombre, GPT, transformer, pre-entrenado generativo. Esta arquitectura surge en 2017 y rápidamente empezaron a desarrollar distintas variantes”.
Luego el doctor explica que en general tienen como dos funciones: entender el lenguaje natural, o sea, lo que se le dice, y generar lenguaje natural.

“Una red neuronal son neuronas conectadas entre sí. Tiene ciertas conexiones y los valores que hay en esas conexiones es lo que guarda una vez que aprendió. Toma como referencia el cerebro, lo cual no significa que funcione igual que el cerebro”.

Significaría que tenemos neuronas que hacen como un cálculo en base a todas las entradas que tiene y le dan una salida. “La red neuronal de ChatGPT a diferencia de otros enfoques de hace bastante tiempo es muy grande. Tiene muchas conexiones”.

Comenta que las grandes empresas tecnológicas empezaron a construir redes neuronales con muchas capas. “Por eso se llama Deep Learning, porque son muchas capas profundas. Cuando esas grandes redes neuronales las entrenás con muchos datos empiezan a tener comportamientos que no sabes muy bien cuál va a ser el resultado”.


Errecalde amplía con ejemplos: “cuando le haces una consulta a ChatGPT te elabora una respuesta combinando un montón de información que tiene. Ahora, si lo que preguntaste es muy cercano a algo que tiene almacenado en esa maraña de números, lo que te va a devolver va a ser algo correcto.

Le podés decir: bueno, tengo que hablar en el acto de mi hija sobre las elecciones de junio y tengo que hablar como lo hubiera hecho San Martín, te lo va a hacer. Porque toma información de San Martín, te hace algo. Eso no significa que sea cierto ni confiable. Es creativo. Usarlo para extraer información confiable no es algo que recomendaría”.


Para entenderlo hay que comprender que son enfoques que te generan información. Este tipo de transformer es lo mismo que están usando para generar videos o imágenes que no son ciertas. “Combinan información que tienen almacenada y en base a lo que vos le pediste te pueden armar algo.
Entonces pedimos una foto del Papa con una Harley Davidson y, no sé, con un peinado punk y te lo obtiene. Ahora, no es que es falso, es algo que vos le pediste que inventara. Entonces, hay que entender ese rol de este tipo de tecnologías para generar contenido”.


Para ciertas tareas es útil, en este semanario hemos podido indagar en parte la utilidad, la idea de “asistente”, “herramienta”, “creatividad”, como también detectar los errores que requieren de la corrección y responsabilidad al momento de replicar información no fiable.

“Le he pedido cosas y programa bastante bien. Como que acelera una parte del trabajo, pero el humano siempre tiene que estar ahí atrás. Porque cuando vos le empezás a pedir más complejidad, te genera un programa, pero si ese programa no llega a andar bien, el programa que te generó no tiene nada que  ver con cómo lo hubiésemos hecho nosotros.

Como que va mezclando cuestiones y tiene su estilo propio, por ahí no sigue los mismos pasos que nosotros hubiéramos seguido. Para encontrar un error en ese programa, cuando tiene un error, también será una complicación. A la larga es como que ganás supuestamente tiempo para programar, pero después lo perdés en la parte de depurado del programa para encontrar el error. Es muy importante destacar que son herramientas de asistencia que todavía requieren del humano para controlar”, detalla el especialista.

En sus recorridos como investigador ha utilizado transformers en otros casos de uso, pero se interesaban en la comprensión del lenguaje y no tanto en generar texto.

¿En dónde se presentaban cuando recién aparecieron?


Errecalde afirma que la parte de traducción automática es la madre de todos estos modelos de transformer. Con los traductores los primeros problemas tenían que ver con la traducción de un lenguaje a otro.

“Antes, cuando tenías que traducir algo y decías: no, este no es el término que se usa en mi área, no, acá no se usa esto, y lo corregías. La esencia del trabajo de esto es más o menos la misma.

Un modelo de lenguaje es predecir cuál es la próxima palabra que viene. Lo hace Google o WhatsApp. Es lo que nosotros hacemos normalmente. Si yo te digo, me voy a comer una milanesa con papas, ya sabés que ‘fritas’ tiene una alta probabilidad de predecirse. Un modelo de lenguaje es eso. Saber cuál es la probabilidad de que ocurra”.

Otros lugares donde aparecieron fue en sistemas de búsqueda del camino más corto como en los GPs. En Netflix, fue muy famoso el sistema recomendador, del cual hoy hay muchísimas variantes.

¿Cambia lo superficial y lo profundo?

“Me parece que va a modificar la forma de trabajo en muchas áreas, habrá que analizar las consecuencias que tendrá el mercado laboral y los gobiernos también tendrán que participar. Si estás liberando tecnologías que van a afectar a la vida de las personas, porque la van a afectar para bien, para mal, con sus ventajas y sus desventajas como toda tecnología, creo que tienen que participar otros actores en esas decisiones de cómo hacerlo, cómo integrarlo, cómo capacitar a la gente en estas cuestiones”. “No sé si va a reemplazar puestos, lo que sí va a replantear es la forma de hacer muchos trabajos, repensar algo más productivo a partir de ese tiempo que obtuvo. Es importante aquí el autodesafío”.


Medicina, medioambiente, industria automotriz son espacios en los que ya se evidencian beneficios del uso de la inteligencia artificial. Pero paso a paso, lo novedoso despierta temores, fantasmas ante lo laboral-expulsivo, pero también es una oportunidad si se aborda la temática con responsabilidad y se convoca a conversar reglamentaciones, leyes, limitaciones y garantías. Es imprescindible que los estados, las usinas educativas y de investigación no quedan en la pasividad ante el avance de los grandes administradores de estos mercados tecnológicos.

Imagen generada por IA Midjorney desde la consigna: operador de 911 con IA.