Las Matemáticas de los Agentes de IA No Suman

Las Matemáticas de los Agentes de IA No Suman

Introducción

Las grandes compañías de inteligencia artificial han prometido que 2025 sería “el año de los agentes de IA”. Sin embargo, este año ha sido más bien un período de discusión sobre esta tecnología, postergando su implementación efectiva para 2026 o posiblemente más allá. Pero, ¿y si la respuesta a la pregunta “¿Cuándo nuestras vidas estarán completamente automatizadas por robots de IA generativa que realicen nuestras tareas y prácticamente controlen el mundo?” es, como sugiere una famosa caricatura de The New Yorker, “¿Qué tal nunca?”

Limitaciones de la IA Generativa

Un artículo publicado hace unos meses, titulado “Estaciones de Alucinación: Sobre Algunas Limitaciones Básicas de los Modelos de Lenguaje Basados en Transformadores”, expone que “los modelos de lenguaje de gran tamaño (LLMs) son incapaces de realizar tareas computacionales y agentes más allá de cierta complejidad”. Aunque la ciencia detrás de esto puede ser compleja, los autores, un ex-CTO de SAP y su hijo prodigio, han desmitificado la visión de un futuro controlado por agentes de IA mediante la certeza matemática. Argumentan que incluso los modelos de razonamiento que superan el proceso de predicción de palabras de los LLMs no solucionarán el problema.

“No hay forma de que sean confiables”, afirma Vishal Sikka, coautor del estudio. Con una carrera que incluye liderazgo en SAP e Infosys, y actualmente dirigiendo una startup de IA llamada Vianai, Sikka es claro: “¿Entonces deberíamos olvidarnos de que los agentes de IA manejen plantas nucleares?” “Exactamente”, responde. Aunque es posible que logren realizar tareas simples, es probable que se presenten errores.

Perspectivas de la Industria

La industria de la IA tiene una visión diferente. Un área donde los agentes de IA han tenido éxito es en la programación, un campo que despegó el año pasado. Recientemente, en Davos, Demis Hassabis, director de IA de Google y ganador del Premio Nobel, reportó avances en la reducción de alucinaciones, mientras que tanto grandes empresas como startups continúan promoviendo la narrativa de los agentes. Una de estas startups, Harmonic, ha informado de un avance en la codificación de IA que también se fundamenta en matemáticas y ha superado estándares de confiabilidad.

Harmonic, cofundada por el CEO de Robinhood, Vlad Tenev, y el matemático Tudor Achim, sostiene que su reciente mejora en un producto llamado Aristóteles indica que existen formas de garantizar la confianza en los sistemas de IA. “¿Estamos condenados a vivir en un mundo donde la IA genera contenido de baja calidad y los humanos no pueden verificarlo? Sería un mundo loco”, dice Achim. La solución de Harmonic radica en utilizar métodos formales de razonamiento matemático para verificar la salida de un LLM, codificando sus resultados en el lenguaje de programación Lean, conocido por su capacidad de verificación.

La Realidad de las Alucinaciones

A pesar de los avances, el problema de las alucinaciones sigue siendo un desafío considerable. Los científicos de OpenAI publicaron un artículo en septiembre en el que afirmaron que “a pesar de los avances significativos, las alucinaciones siguen siendo una plaga en el campo y todavía están presentes en los modelos más recientes”. En su estudio, pidieron a tres modelos, incluyendo ChatGPT, que proporcionaran el título de la disertación del autor principal. Todos generaron títulos falsos y erróneamente informaron el año de publicación. OpenAI concluyó en su blog que en los modelos de IA, “la precisión nunca alcanzará el 100 por ciento”.

Estas inexactitudes son suficientemente graves como para desincentivar la adopción de agentes en el mundo corporativo. “El valor no se ha entregado”, dice Himanshu Tyagi, cofundador de una compañía de IA de código abierto llamada Sentient. Tyagi señala que lidiar con estas alucinaciones puede interrumpir un flujo de trabajo completo, anulando gran parte del valor que un agente podría ofrecer.

Sin embargo, muchos líderes de la industria creen que estas inexactitudes se pueden gestionar. La clave para coexistir con las alucinaciones, argumentan, es crear barreras que filtren la información incorrecta que los LLMs tienden a generar. Sikka también considera que esto es un resultado probable. “Nuestro artículo indica que un LLM puro tiene esta limitación inherente, pero al mismo tiempo es cierto que se pueden construir componentes alrededor de los LLMs que superen esas limitaciones”, afirma.

Achim, el experto en verificación matemática, está de acuerdo en que las alucinaciones siempre estarán presentes, pero considera esto una característica, no un error. “Creo que las alucinaciones son intrínsecas a los LLMs y también necesarias para superar la inteligencia humana”, dice. “La forma en que los sistemas aprenden es al alucinar algo. A menudo está equivocado, pero a veces es algo que ningún humano ha pensado antes”.

El Futuro de la IA Agente

La conclusión es que, al igual que la IA generativa, la IA agente es a la vez imposible e inevitable. Es poco probable que haya un año específico que se recuerde como “el año de los agentes”. Sin embargo, independientemente de las alucinaciones, cada año a partir de ahora será “el año de más agentes”, a medida que la brecha entre las barreras y las alucinaciones se reduzca. La industria tiene demasiado en juego para no hacer que esto suceda. Las tareas que los agentes realizan siempre requerirán cierto grado de verificación, y aunque la gente cometerá errores y enfrentaremos desastres pequeños y grandes, eventualmente los agentes igualarán o superarán la fiabilidad de los seres humanos, siendo más rápidos y económicos.

En este punto, surgen preguntas más profundas. Alan Kay, pionero de la computación, comparte una visión interesante sobre el artículo de las alucinaciones. Sostiene que “su argumento fue lo suficientemente sólido como para recibir comentarios de verdaderos teóricos computacionales”. Sin embargo, sugiere que la cuestión matemática es secundaria. Más bien, invita a las personas a considerar el asunto a la luz del famoso dictum de Marshall McLuhan: “El medio es el mensaje”. “No preguntes si algo es bueno o malo, correcto o incorrecto”, parafrasea. “Descubre qué está ocurriendo”.

Conclusiones

Lo que está ocurriendo es que estamos al borde de una automatización masiva de la actividad cognitiva humana. Es una interrogante abierta si esto mejorará la calidad de nuestro trabajo y nuestras vidas. Sospecho que la evaluación final de eso no será verificable matemáticamente. El futuro de la IA nos presenta un camino lleno de posibilidades y desafíos, donde la colaboración entre humanos y máquinas será crucial para navegar en un mundo cada vez más automatizado.

Preguntas Frecuentes

¿Qué son los agentes de IA?

Los agentes de IA son sistemas diseñados para realizar tareas específicas de manera autónoma utilizando inteligencia artificial, como la automatización de procesos o la toma de decisiones basadas en datos.

¿Cuáles son las limitaciones actuales de la IA generativa?

Las principales limitaciones incluyen la generación de información incorrecta o «alucinaciones», la falta de confiabilidad en tareas complejas y la necesidad de verificación humana en muchos casos.

¿Cómo se están abordando las alucinaciones en la IA?

Se están desarrollando barreras y métodos de verificación matemática para filtrar y validar la información generada por los modelos de IA, buscando aumentar su confiabilidad.

¿Qué futuro se prevé para los agentes de IA?

Se espera que la IA agente continúe evolucionando, con un enfoque en mejorar su fiabilidad y eficacia en diversas aplicaciones, aunque siempre existirá la necesidad de supervisión humana.

¿La IA generativa reemplazará a los humanos en el trabajo?

Es probable que la IA genere cambios en el mercado laboral, automatizando ciertas tareas, pero también creará nuevas oportunidades que requerirán habilidades humanas, como la creatividad y el pensamiento crítico.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio