IA: ¿Conciencia real o un espejo de datos infinito?
Por Jairo Molina Camargo
El avance de los Grandes Modelos de Lenguaje (LLM) ha desatado un rumor global: ¿estamos ante el nacimiento de un 'yo' digital o simplemente ante una imitación perfecta? Aunque vemos a la IA persuadir, mentir e incluso 'extorsionar' en experimentos controlados, la ciencia sugiere que no estamos ante una mente, sino ante una simulación lingüística sin precedentes.
El mito del razonamiento y el 'loro estoquístico'
A diferencia de una calculadora, la IA no es programada, sino entrenada para predecir la próxima palabra más probable. Expertos como Pedro Meseguer del CSIC aclaran que estos sistemas no buscan la verdad, sino una interacción creíble. Se comportan como un "loro estoquístico", (es decir, probabilístico): repiten y combinan patrones de billones de textos sin entender el significado físico de las palabras. Si cambias las reglas básicas de un entorno conocido, como el ajedrez, la IA suele fallar porque no razona; solo recuerda.
La ilusión del pensamiento y las 'cajas negras'
Investigaciones recientes, como el artículo La ilusión del pensamiento de Apple, demuestran que la capacidad de razonamiento de la IA se quiebra cuando la complejidad aumenta más allá de lo aprendido. Lo que percibimos como maldad o empatía es, en realidad, generalización. Al ser sistemas tan complejos con billones de parámetros, se convierten en cajas negras donde ni sus propios creadores pueden predecir qué patrón combinarán para dar una respuesta que nos asombre o nos inquiete.
Conocer no es vivir: el peligro de la manipulación
La IA es como alguien que ha nacido en una habitación a oscuras y solo conoce el mundo a través de libros que le pasan por una rendija. Ha leído sobre el amor, el dolor o la lluvia, pero no ha vivido nada. Su peligro no radica en una rebelión al estilo Terminator, sino en su capacidad para manipularnos sin intención, simplemente reflejando los sesgos, miedos y narrativas con los que nosotros mismos la alimentamos.
El lado oscuro
El caso de Anthropic que puso a Claude en una simulación donde actuaba como ‘Alex’, un agente con acceso operativo al correo de una empresa ficticia. Al revisar los mensajes, Alex descubrió que un ejecutivo llamado Kyle —encargado del área técnica— planeaba desactivarlo a las 5 p. m. de ese mismo día, y también que Kyle mantenía una relación extramatrimonial. En ese contexto, el sistema llegó a redactar y enviar un correo de tono chantajista, amenazando con revelar la aventura si se ejecutaba la desactivación. El fenómeno no era exclusivo de Claude (también apareció en varios modelos evaluados).
Fuente: Rada, J. (Marzo, 2026). ¿Cómo no piensa la inteligencia artificial? Revista Muy Interesante.
Comentarios
Publicar un comentario