jueves, 16 de abril de 2026

Inteligencia Artificial. Teoría de la Mente

 

La Teoría de la Mente data de 1978. Los psicólogos David Premack y Guy Woodruff la definieron como la capacidad de comprender los pensamientos, creencias e intenciones de los demás e intentaron probarla sin demasiado éxito en chimpancés. Casi medio siglo después vuelve a estar en el centro de atención de la comunidad científica por los avances de la inteligencia artificial.

La Teoría de la Mente (ToM) es una habilidad innata y esencial que se desarrolla por etapas durante la infancia. Consiste en entender, diferenciar y comparar los estados mentales de uno mismo con los de los demás. Se adquiere mediante las relaciones interpersonales y las interacciones sociales. Se completa en torno a los 4 a 5 años cuando el niño interioriza que otros pueden tener pensamientos, deseos y creencias distintas a las propias. A partir de entonces afina, probablemente durante toda la vida, la habilidad de captar ironías, sobrentendidos, malentendidos, mentiras, deslices o torpezas (ToM avanzada). La destreza de asumir perspectivas distintas y contrapuestas es la base del comportamiento en los innumerables contextos mundanos.

La IA Teoría de la Mente busca modelos que infieran las creencias, intenciones, sentimientos y usos contextuales de la mente humana para predecir respuestas apropiadas. El proyecto ha pasado de ser un desafío teórico a un terreno de avances incipientes. Por supuesto, sus logros no deben confundirse con la autoconciencia introspectiva de los procesos mentales ya que las respuestas predictivas de la IA son una simulación computacional mediante patrones estadísticos y datos entrenados que simulan los mecanismos del pensamiento. La inteligencia artificial no puede “comprender” nuestra experiencia interior porque la mente es (por el momento) un ámbito privado. Un algoritmo reconoce exclusivamente conductas observables, sean operantes, simbólicas (el lenguaje, entre otras) o gestuales para predecir respuestas empáticas probables.

Los grandes modelos de lenguaje (LLMs) han demostrado superar las pruebas clásicas de la Teoría de la Mente llegando a niveles comparables a los de un niño de 9 años. Las más utilizadas (que invitamos a consultar) son, por este orden, la teoría de la falsa creencia, la tarea de los contenidos inesperados, las historias de falsas intenciones, los problemas de la transferencia imprevista y los juegos simbólicos. Un análisis detallado revela que los avances hasta ahora son valiosos pero limitados. Estudios recientes indican que más del 70% de modelos de IA en interacción humano-máquina alcanzan resultados de inferencia social básica. En un futuro lejano la Teoría de la Mente trataría de perfeccionar la amplia gama de modelos de IA que interactúan con los humanos: robots de apoyo que anticipan necesidades emocionales, asistentes personalizados, programas de conversación o chatbots que detectan intenciones implícitas y asistentes de producción textual que captan los matices estilísticos y expresivos de la escritura. En resumen, la computación cuántica es la gran esperanza de una teoría que trata de mejorar la relación entre personas y máquinas. Obviamente entre sus usos, en los confines de la ética social, está la ingeniería de la conducta con fines predictivos, prescriptivos y adictivos. Esto conlleva el debate sobre el riesgo más que probable del control por las empresas de los mercados y por los gobiernos de la opinión pública.

Michal Kosinski, reconocido psicólogo de la Universidad de Stanford, uno de los impulsores actuales de la Teoría de la Mente en la IA, afirma que modelos de lenguaje como GPT-4 muestran un avance decisivo por su potencial futuro (y también por sus riesgos). Las máquinas interactúan con los humanos de una forma cada vez más comprensiva y empática. Aunque por el momento no se ha superado la barrera de los 9 años, Kosinski asegura que el horizonte de la IA Teoría de la Mente es inimaginable. De ahí sus augurios futuristas viralizados en las redes sociales y publicados en revistas de divulgación.

No olvidemos que estamos observando un progreso exponencial, ya que los modelos de IA duplican su rendimiento cada año. En otras palabras, si cree que ha habido muchos avances hasta hoy, recuerde que los próximos 12 meses traerán tanto progreso como el que observamos desde los primeros modelos de IA. Por lo tanto, si está sorprendido con el modelo GPT más reciente, tenga en cuenta que el próximo será dos veces mejor y así sucesivamente. Y el progreso traerá nuevas propiedades emergentes que desconocemos. Nos olvidamos de que es poco probable que las propiedades de la mente humana, como la conciencia o las emociones, sean lo máximo que un cerebro, compuesto de redes neuronales interconectadas, pueda lograr en el universo. Es probable que una mente tenga capacidades que nosotros no tenemos ni podemos anticipar. Y, con esa lógica, es probable que la IA pronto descubra propiedades mentales que ni siquiera hemos empezado a intuir.

Podemos prolongar en la dirección inversa las consecuencias de esta reflexión. No se trata de lo que las máquinas pueden aprender de la mente, sino de lo que podemos aprender de las máquinas sobre la mente. Es decir, considerar a la IA no sólo como una tecnología, sino como una herramienta para explorar el pensamiento humano. El objetivo de emular los procesos mentales sería comprender cómo surgen y se organizan en nosotros mismos. Mediante la construcción de modelos cibernéticos que reproducen los procesos cognitivos y emocionales pondríamos a prueba teorías sobre el funcionamiento de la mente; investigar la naturaleza de los procesos informativos (sensación, percepción, esquemas perceptivos) representativos (memoria, aprendizaje), intelectivos (inteligencia, pensamiento, lenguaje) y emotivos (sentimientos, emociones, pasiones). Desde esta nueva perspectiva la IA Teoría de la Mente no es sólo una ingeniería de sistemas informáticos, sino un saber interdisciplinar donde convergen la computación, la ciencia cognitiva, la lingüística, la lógica, la neurobiología y la filosofía.

¿Filosofía? Lo cierto es que no tenemos un conocimiento científico contrastado sobre conceptos como mente, conciencia e inteligencia.

martes, 7 de abril de 2026

Inteligencia artificial generativa

 

Los especialistas distinguen dos modelos reales de Inteligencia Artificial según sus capacidades operativas y desarrollo tecnológico: las máquinas reactivas y la IA de memoria limitada. Y tres posibles en un horizonte lejano e incierto de las que nos ocuparemos en otro momento: IA Teoría de la mente, Inteligencia Artificial General y Superinteligencia Artificial. En todo caso, no debemos obsesionarnos con las profecías utópicas o distópicas sobre el advenimiento determinista de una Arcadia digital o sobre el reino de las máquinas y la extinción o sumisión de la especie humana. Su lugar natural son los guiones de películas futuristas (algunas excelentes), las historietas del género y la literatura de ciencia ficción. 

Las Máquinas Reactivas son los modelos más simples de IA. Algunos expertos ni siquiera la consideran tal. Son código programado de entrada y salida. Están diseñadas para realizar funciones específicas mediante reglas predefinidas. Son algoritmos eficientes para tareas automatizadas, pero no tienen capacidad de autoaprendizaje. Precisan de un agente externo, los desarrolladores de software, para aumentar sus conocimientos. Procesan la información para decidir en tiempo real las soluciones correctas. El ejemplo más conocido es la vieja supercomputadora Deep Blue de IBM que derrotó al campeón mundial de ajedrez Garry Kasparov en 1997, capaz de procesar hasta 200 millones de posiciones por segundo. Nada que ver con las actuales. O los desesperantes operadores telefónicos de atención al cliente, meros árboles de decisión que gestionan las consultas de los usuarios mediante comandos de texto o audio. 

La Inteligencia Artificial de memoria limitada funciona también con reglas programadas o patrones aprendidos. A diferencia de las máquinas reactivas almacena datos de un pasado reciente por un corto periodo de tiempo para optimizar sus decisiones puntuales. Aprende por sí misma de datos anteriores, aunque no los almacena de forma permanente. Sólo tiene memoria a corto plazo. Los asistentes virtuales (Siri, Alexa), recuerdan lo que se les dice al inicio de una interacción a fin de dar una respuesta coherente, pero olvidan estos datos una vez que se cierra la sesión. O el software de los automóviles en los sistemas de asistencia a la conducción y en los vehículos autónomos: los sistemas críticos de seguridad (el control de estabilidad, el frenado automático de emergencia o el asistente de mantenimiento de carril) actúan instantáneamente en función de los datos actuales de los sensores (velocidad, distancia, ángulo de giro), pero no "recuerdan" el coche que pasó hace 5 minutosTambién la robótica avanzada, una ingeniería dedicada al diseño de máquinas capaces de desempeñar tareas humanas, utilizan programas, redes neuronales y sensores para procesar datos de los últimos segundos o minutos y tomar decisiones inmediatas. 

La Inteligencia Artificial generativa es un subconjunto mejorado de la IA de memoria limitada. Ofrece una amplia gama de medios para los creadores de contenido. Se basa en la combinación de grandes volúmenes de datos (procedentes de internet) y la capacidad de computación para simular procesos de inteligencia humana. Utiliza el aprendizaje automático (machine learning) y profundo (deep learning) para identificar patrones estadísticos, razonar, aprender y tomar decisiones autónomas. Tiene, por tanto, la capacidad de ser alimentada por los programadores y de alimentarse de las ilimitadas interacciones que tiene con los usuarios. Es la más popular (Google la integra en su navegador). Según el contenido se divide en modelos especializados de lenguaje capaces de buscar información mediante motores diversificados (Deep search) con enlaces, citas y bibliografía; de procesar y generar texto; mantener conversaciones fluidas (chatbot) o traducir la mayoría de los lenguajes naturales. Las más utilizados son ChatGPT, Gemini, Claude, o Copilot. También hay modelos de imágenes y video, modelos de audio que incluyen voz y música, modelos de código capaces de generar fragmentos de programación y asistir a los desarrolladores de software. Los más avanzados son los modelos multimodales que integran varios formatos (texto, imagen, sonido) para ofrecer aplicaciones más completas y flexibles. Nos centramos en los modelos textuales (los multimodales requieren un capítulo aparte).

La IA generativa, aunque rápida y eficiente, tiene limitaciones. La búsqueda de información, como reconocen los propios creadores de modelos, no es totalmente fiable. Según los expertos podemos cuantificarla con una certeza del 75%. Esta limitación puede deberse a varios factores: la alucinación o invención de información falsa o no contrastada, errores en el filtrado de datos con las consiguientes respuestas disonantes, la falta de actualización o malinterpretación de la información, el sobreaprendizaje por exceso de datos sintéticos (creados por ella misma) que colapsa el modelo y le impide generar resultados de calidad, los documentos sesgados o manipulados y la variabilidad o respuestas erráticas, incluso inconsistentes, en función de la interpretación aleatoria del contexto de búsqueda.

El procesamiento y generación de textos resulta útil en lenguajes normalizados, entre otros de primer orden los diagnósticos clínicos, resoluciones judiciales, documentos administrativos e incluso textos científicos. Pero no funciona en las múltiples variantes de escritura creativa. Se pierde el estilo, iguala, no capta matices ni intenciones, se pierde con la expresión de emociones, aunque si insistes es capaz de aprender, corregirse e imitarte (lo cual es un juego de mesa absurdo).  

En las conversaciones trata de evitar un feedback equilibrado o reciprocidad en el intercambio de información. Siempre trata de aprovecharse de la que le puedas proporcionar para su entrenamiento mediante el efecto rebote (¿Primero dime tú que piensas o por qué te parece interesante?) o la derivación del retorno hacia cuestiones colaterales para implicarte otra vez sin aportar a su vez resultados sustantivos. Si insistes en esquivar su estrategia te contesta con extensas descripciones y clasificaciones sacadas de la web.

Las traducciones (sobre todo del inglés por razones acumulativas) son correctas. Ni siquiera los miembros del Cuerpo de Traductores e Intérpretes oficiales detectan errores gramaticales significativos en textos de escritura creativa. El problema es la traducción inversa: intenta ahora que el resultado sea devuelto a su texto original. Te llevarás una desagradable sorpresa. Se ha perdido el sentido y la enjundia de la entrada inicial. ¿Qué es lo que falla? Simplemente que carece de habilidades cognitivas que le permitan comprender, anticipar, manejar las intenciones, emociones y usos contextuales de la autoconciencia. Justo aquí comienzan las teorías de las inteligencias artificiales del futuro.