Cuanto más refinado es el modelo de IA más sofisticadas son sus “alucinaciones”

En la carrera por desarrollar modelos de inteligencia artificial (IA) cada vez más sofisticados, se ha descubierto un fenómeno intrigante y, a la vez, preocupante: cuanto más refinado es el modelo, más sofisticadas son sus “alucinaciones”. Esta paradoja ha captado la atención de investigadores y expertos en tecnología, que ven en ella un reflejo de las limitaciones inherentes a los sistemas de IA actuales, a pesar de sus impresionantes avances.

Marta Peirano, una reconocida escritora y periodista española especializada en la intersección entre tecnología y poder, abordó esta problemática en un artículo publicado en EL PAÍS titulado “No habrá inteligencia artificial general”. Peirano, con una vasta experiencia en temas de derechos digitales, ciberseguridad y privacidad, destaca en su artículo que, aunque los grandes modelos de lenguaje tienen el potencial de convertirse en agentes inteligentes con la capacidad de entender el mundo, en realidad, están confinados en un mundo de palabras. Esta observación subraya la naturaleza limitada de estos sistemas y plantea dudas sobre la posibilidad de alcanzar una inteligencia artificial general (IAG) con la tecnología actual.

Alucinaciones: El frenonecesario

En enero de 2020, Jared Kaplan, un físico teórico y profesor en la Universidad Johns Hopkins, publicó un influyente paper titulado “Leyes de Escalamiento para Modelos de Lenguaje Neurales”. En este trabajo, Kaplan y su equipo demostraron que los modelos generativos mejoran de manera predecible al aumentar el número de parámetros, la cantidad de datos de entrenamiento y la potencia computacional. Esta teoría, conocida como la ley de escalamiento, establece que cuanto más grande y variado es el conjunto de datos que un modelo puede procesar, mejor “piensa”. Sin embargo, Kaplan también identificó un detalle crucial: a medida que los modelos se vuelven más sofisticados, también lo hacen sus “alucinaciones”, haciéndolas más difíciles de detectar.

alucinaciones
Las alucinaciones, esta paradoja ha captado la atención de investigadores y expertos en tecnología, que ven en ella un reflejo de las limitaciones inherentes a los sistemas de IA actuales, a pesar de sus impresionantes avances. Ilustración MidJourney

Kaplan y su equipo llevaron a cabo experimentos entrenando varios modelos de diferentes tamaños con diversas cantidades de datos. Sus hallazgos mostraron que, con el incremento de datos y tamaño del modelo, aumentaba la precisión y coherencia de las respuestas, y se reducían los errores de predicción. Este comportamiento es análogo al de un niño o animal que mejora su comprensión del mundo a través de la exposición a una mayor diversidad de ejemplos. No obstante, Kaplan subraya que esta comparación es engañosa, ya que los modelos de IA no “aprenden” en el sentido humano del término. Las “alucinaciones” de los modelos son, en realidad, un síntoma de su inherente limitación para entender el mundo fuera de los datos con los que han sido entrenados.

Gemini, Claude o GPT

La complejidad de los grandes modelos de lenguaje, como Gemini, Claude o GPT, reside en que están compuestos de múltiples partes interconectadas que interactúan según leyes que no pueden ser inferidas simplemente sumando sus componentes. Esta característica se asemeja a sistemas complejos en la naturaleza, como las ciudades o los ecosistemas, donde las interacciones entre las partes producen comportamientos emergentes que no son fácilmente previsibles. Galileo fue uno de los primeros en notar estas leyes de “potencia” al observar que los árboles no crecen indefinidamente hacia arriba, sino que, a partir de cierto punto, su crecimiento se ramifica de manera más compleja y jerárquica.

Tambièn puedes leer: Etiquetar a China por “exceso de capacidades” es solo otro eufemismo de control de EE.UU.

En la misma línea, conocemos la ley de Kleiber, que establece que cuando un organismo duplica su tamaño, su tasa metabólica no se duplica, sino que aumenta en un 41%. Esta ley refleja una mayor eficiencia metabólica en organismos más grandes, lo que a su vez implica un envejecimiento más lento. Otra ley relevante es la de Zipf, que describe cómo la frecuencia de palabras en cualquier lengua sigue un patrón predecible: la segunda palabra más común aparece aproximadamente la mitad de veces que la más común, la tercera un tercio, y así sucesivamente. Estas leyes revelan patrones fundamentales en sistemas complejos, aplicables también a los modelos de IA.

La ley de escalamiento de Kaplan sugiere que, con acceso a más máquinas, energía y contenido, los modelos podrían convertirse en agentes inteligentes capaces de entender el mundo. Sin embargo, la persistencia de las “alucinaciones” es una prueba contundente de que esto no sucederá con la tecnología actual. Los modelos de IA están atrapados en un universo compuesto exclusivamente de signos, jerarquías y estadística, incapaces de mentir, alucinar o equivocarse en el sentido humano, porque todas las palabras son verdaderas dentro de su limitado marco de referencia.

Capacidad de procesamiento

El concepto de “alucinación” en IA se refiere a las respuestas generadas por los modelos que, aunque parecen coherentes y plausibles, no tienen una base en la realidad o en los datos de entrenamiento. Estas “alucinaciones” son un reflejo de los límites de la IA para comprender contextos que no están explícitamente codificados en su base de datos. Este fenómeno pone de manifiesto que, a pesar de los avances en el tamaño y la capacidad de procesamiento de los modelos, todavía estamos lejos de alcanzar una verdadera inteligencia artificial general.

alucinaciones
El concepto de “alucinación” en IA se refiere a las respuestas generadas por los modelos que, aunque parecen coherentes y plausibles, no tienen una base en la realidad o en los datos de entrenamiento. Ilustración MidJourney.

La expectativa de que los modelos de IA puedan entender el mundo de manera similar a los humanos es una ilusión. Los sistemas de IA actuales, a pesar de su impresionante capacidad para generar texto coherente y relevante, siguen siendo meras máquinas estadísticas que operan dentro de los confines de los datos con los que han sido entrenados. La sofisticación de sus “alucinaciones” aumenta con su complejidad, haciéndolas más difíciles de detectar y, a menudo, más convincentes, lo que plantea serios desafíos para su uso en aplicaciones críticas donde la precisión y la veracidad son esenciales.

Mantener expectativas realistas

A medida que los desarrolladores continúan mejorando estos modelos, es crucial reconocer y abordar las limitaciones inherentes de la tecnología. Las “alucinaciones” de los modelos de IA no solo subrayan la necesidad de un enfoque más crítico y consciente en el desarrollo de estas tecnologías, sino que también nos recuerdan la importancia de mantener expectativas realistas sobre lo que estos sistemas pueden y no pueden hacer. La búsqueda de una inteligencia artificial general debe ir acompañada de una comprensión profunda de los desafíos y limitaciones que aún debemos superar.

Tambièn puedes leer: Reconstruir la industria en EE.UU. es una tarea cuesta arriba y afecta a la defensa nacional

El refinamiento de los modelos de inteligencia artificial ha llevado a avances significativos en su capacidad para procesar y generar lenguaje. Sin embargo, estas mejoras también han revelado la creciente sofisticación de sus “alucinaciones”, lo que subraya las limitaciones fundamentales de la tecnología actual. Como destaca Marta Peirano en su artículo, y como lo demuestran los hallazgos de Jared Kaplan, estamos aún lejos de alcanzar una inteligencia artificial general que pueda entender el mundo de manera significativa. Hasta que no se superen estos obstáculos, las “alucinaciones” seguirán siendo un desafío persistente en el desarrollo de IA avanzada.

Related articles

- Publicidad -spot_imgspot_img
spot_imgspot_img

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí