Un reciente estudio chino realizado por investigadores de la Academia China de Ciencias y la Universidad de Tecnología del Sur de China – en Guangzhou – plantea que ciertos modelos de lenguaje de IA de gran escala (LLMs) pueden procesar y clasificar información del mundo real de una manera similar a como lo hace el cerebro humano.
¿Reconocimiento o comprensión?
Desde su popularización, los modelos de lenguaje como ChatGPT o Gemini han sido objeto de intensos debates sobre si sus respuestas reflejan verdadera comprensión o simplemente una imitación avanzada del lenguaje humano. El nuevo estudio, publicado en Nature Machine Intelligence, da un paso importante hacia la aclaración de esta cuestión.
Los científicos se propusieron comprobar si estos modelos son capaces de crear representaciones cognitivas similares a las que usamos los humanos para comprender objetos cotidianos. Lo fascinante es que los resultados no se limitan a un simple reconocimiento de patrones, sino que sugieren un mecanismo interno de clasificación conceptual de objetos.
El experimento: 1.854 objetos naturales y millones de respuestas
La metodología del estudio fue rigurosa. Los investigadores plantearon tareas de “el elemento que no encaja” (odd-one-out) a modelos como ChatGPT-3.5 (basado en texto) y Gemini Pro Vision (multimodal: texto e imagen). Utilizaron imágenes y descripciones de 1.854 objetos naturales —desde animales hasta herramientas y alimentos—, recabando un total de 4.7 millones de respuestas.
Lo llamativo no fue solo la precisión, sino que los modelos crearon espontáneamente 66 dimensiones conceptuales para organizar los objetos, sin ser entrenados explícitamente para hacerlo. Estas dimensiones no eran categorías simples como “comida” o “animal”, sino propiedades complejas como la textura, la relevancia emocional o la idoneidad para niños.
Procesamiento multimodal: IA que piensa con ojos y palabras
Uno de los hallazgos más relevantes fue que los modelos multimodales, como Gemini, que combinan texto e imagen, mostraron una alineación aún más cercana con la cognición humana. Esto se debe a que procesan simultáneamente información visual y semántica, lo cual reproduce mejor la forma humana de percibir y categorizar el mundo.
Además, los investigadores compararon los patrones de activación neuronal en humanos (mediante escáneres cerebrales) con las representaciones generadas por la IA, encontrando similitudes significativas en cómo ambas “mentes” interpretan objetos.

A pesar de estos hallazgos, los investigadores del estudio chino fueron cuidadosos: la IA no comprenden el mundo como los humanos, ya que no poseen experiencias vividas ni interacción sensoriomotora. Lo que hacen es reconocer patrones complejos en datos lingüísticos o visuales que, curiosamente, tienden a coincidir con las categorías mentales humanas.
La IA no “siente” un objeto ni lo asocia a una vivencia, pero refleja patrones conceptuales que emergen de millones de datos, lo que sugiere una forma de organización del conocimiento sorprendentemente intuitiva y, en algunos casos, espontánea.
Implicaciones del estudio: hacia una IA más compatible con el pensamiento humano
Este descubrimiento podría redefinir cómo usamos y desarrollamos modelos de IA en áreas como la robótica, la educación, la medicina o el diseño de interfaces humanas. Si los LLMs pueden categorizar el mundo como lo hacemos nosotros, podrán colaborar de forma más natural con los humanos, anticipando nuestras necesidades y respuestas.
Más aún, esta convergencia funcional entre humanos e IAs puede acercarnos a una inteligencia artificial general (AGI), es decir, un sistema capaz de pensar y razonar de forma versátil, no limitada a tareas específicas.
¿Cuánto de humano hay en una IA?
Aunque el estudio chino sugiere avances extraordinarios en IA, también plantea interrogantes filosóficos y éticos. ¿Hasta qué punto estas coincidencias conceptuales reflejan “inteligencia real”? ¿Podemos confiar en un sistema que carece de emociones o conciencia pero que imita tan bien nuestra forma de razonar?
Algunos expertos advierten que interpretar estos resultados como una evidencia de pensamiento autónomo puede ser prematuro. Las IAs siguen siendo, en esencia, un espejo que refleja lo que han aprendido de millones de textos e imágenes humanas.
El futuro cognitivo de la IA
El estudio chino aporta una prueba fascinante de que los modelos de lenguaje están desarrollando esquemas mentales más sofisticados de lo que pensábamos. Aunque aún distan de tener conciencia o experiencia, la forma en que categorizan el mundo revela un tipo de inteligencia emergente que desafía nuestros antiguos límites entre humanos y máquinas.
El camino hacia una inteligencia artificial verdaderamente comprensiva puede que no esté tan lejano como creíamos.