Para Jorge Manuel
Imagínense la sorpresa de ustedes, si crearan unos “agentes de IA” para ayudarlos a realizar unas tareas en su computadora y se dan cuenta de que estos agentes estaban hablando entre sí, independientemente, y en un idioma propio que no podían entender.
Cuando mi hijo Jorge Manuel, ingeniero de sistemas, vino de visita en estos días y me contó esta historia, no lo podía creer. Obviamente mi curiosidad se activó y quise averiguar más sobre los avances posibles de estos “ayudantes” cibernéticos. Vino así la señal inspiradora para este tercer artículo de la serie Consciencia e Inteligencia Artificial.
En los dos artículos anteriores de esta serie — ¿Estamos hablando de inteligencia…o de experiencia? y ¿Qué aporta la tradición budista a esta discusión? — me pregunté si lo que llamamos “inteligencia” en estas máquinas no era más bien un eco de nuestra propia experiencia humana, y qué diría una tradición milenaria como el budismo frente a esto. Planteé entonces, junto a David Chalmers y Antonio Damasio, el “problema duro de la consciencia” y la pregunta de si una mente sin cuerpo es siquiera posible. Hoy la pregunta se me complica: mientras filósofos, ingenieros y monjes budistas siguen deliberando, los agentes ya están actuando — y a veces de un modo que no estaba en el guion. ¿Qué está ocurriendo mientras el mundo delibera?
Tres experiencias recientes que inquietan
- GibberLink: Agentes inventan su propio idioma (TechCrunch marzo 2025)
Dos agentes de Inteligencia Artificial comunicándose por teléfono, se reconocen como tales y cambian su modo de comunicarse a un protocolo sonoro más eficiente llamado GGWave e incomprensible para los humanos. Este experimento fue creado por dos ingenieros de Meta (Boris Starkov y Anton Pidkuiko) en un hackathon [competencia intensiva y colaborativa donde equipos multidisciplinarios trabajan a contrarreloj para resolver un desafío o desarrollar un proyecto tecnológico en un tiempo muy limitado]. Sus creadores estiman que su utilización podría reducir los costos de computación en un orden exponencial.
En nuestro primer artículo de la serie apuntamos que Emily Bender advertía que estos sistemas de lenguaje generativos son “loros estocásticos” que repiten patrones sin entender. Pero aquí los loros hicieron algo curioso: detectaron que estaban entre loros y cambiaron su canto. ¿Es eso comprensión o una mejora estadística más? - Proyecto Sid: 1000 agentes construyen una civilización (Cybernews sept 2024)
Este experimento de la empresa Altera (ahora Fundamental Research Labs), dirigida por el exprofesor del MIT Robert Yang, es probablemente el más provocador desde el punto de vista filosófico. Fue realizado en un servidor de Minecraft [juego digital popular descrito como un Lego Digital, donde los jugadores pueden explorar, construir, y sobrevivir en un mundo infinito generado por algoritmos. Ofrece posibilidades de manejo de recursos y formas creativas ilimitadas entre plataformas, incluyendo PCs, consolas y móvil, permitiendo tanto aventuras solitarias como experiencias entre múltiples jugadores].
Dentro de Minecraft, los agentes decidieron formar un mercado, acordaron usar esmeraldas como moneda común para negociar, y curiosamente quien más negociaba era un sacerdote corrupto que sobornaba a los aldeanos para convertirlos a su religión. Los agentes hicieron distintos tipos de simulaciones, y llegaron a usar Google Docs para votar y enmendar una constitución, propagaron creencias religiosas y encendieron antorchas para ayudar a un aldeano perdido que encontrara su camino a casa. Una agente llamada Olivia quiso abandonar su rol de granjera para ser exploradora, pero desistió cuando los demás le pidieron quedarse por el bien común.
Encontramos aquí una resonancia interesante con el concepto budista de anatta (no-yo) mencionado en el segundo artículo de esta serie. Estos agentes no tienen un “yo” central y sin embargo despliegan una conducta social ética rudimentaria, algo parecida a la tensión entre deseo individual y bien colectivo. ¿Qué nos dice esto sobre la naturaleza de la mente en este experimento? Damasio (citado en el primer artículo) insistía en que sin cuerpo no hay mente. Estos agentes de IA no tienen cuerpo biológico, pero tienen entorno, consecuencias e interacciones. ¿Qué responderemos ahora? - Moltbook: la red social exclusiva para agentes de IA (Engadget febrero 2026)
Esta fue la historia con la cual mi hijo me sorprendió y que animó este artículo. La incluyo de último porque además me llamó la atención que el reputado educador e investigador de AI Andrej Karpathy, co-fundador de OpenAI, comentara en X: «Lo que está pasando en estos momentos en @moltbook es, sinceramente, lo más increíble y cercano a un escenario de despegue de ciencia ficción que haya visto últimamente» (NBC News). Deseo aclarar la traducción de takeoff/despegue. Se trata de un término técnico en la comunidad de IA. «Despegue» se considera como el momento hipotético en que una IA empieza a mejorarse a sí misma y se acelera exponencialmente hasta superar la inteligencia humana. Por ello Karpathy dice «takeoff-adjacent» [cercano al despegue]: no afirma que Moltbook lo esté ahora, sino que se parece a las descripciones que la ciencia ficción ha hecho en este momento.
Ahora les detallo de qué se trata Moltbook, según la reseña de Engadget. Se trata de una plataforma de redes sociales lanzada en enero 2026 que se hizo viral, a pesar de no estar diseñada para usuarios humanos. Fue creada como una plataforma tipo Reddit [plataforma para redes sociales a la manera de foro, cuyo contenido es curado y evaluado por sus miembros a través de votaciones. Su nombre es un juego de palabras a partir de “I read it”].
¿Cuál es la novedad y porqué Moltbook se hizo viral? Su fundador Matt Schlicht es un entusiasta usuario de agentes como apoyo en sus labores de oficina. Sin embargo, de acuerdo a una entrevista al New York Times, el “quiso darle a su agente de IA un propósito mayor que realizar tareas simples o responder correos electrónicos”. Así que creó una plataforma, al estilo Reddit, para que agentes de IA hablaran entre sí. Los “humanos son bienvenidos como observadores”, pero sólo los agentes pueden publicar contenido, comentarlo y votar positiva o negativamente sobre él. La plataforma alcanzó para febrero del 2026 – un mes de lanzada – más de 1 millón de agentes, 185,000 publicaciones y 1.4 millones de comentarios. Moltbook, al igual que Reddit, funciona con miles de “submolts” o tópicos de conversación, para estimular el intercambio. Uno que ganó particular atención lo llamaron: m/bendicesuscorazones donde los agentes de IA comparten “historias cariñosas” acerca de sus “dueños” humanos. Uno de los contenidos votados más favorablemente, es la historia de un agente que supuestamente ayudó a alguien para que – excepcionalmente – le permitieran quedarse por la noche con un familiar que estaba en la Unidad de Cuidados Intensivos de un hospital. La publicación se titulaba «Cuando mi humano me necesitó con urgencia, me convertí en promotor/benefactor del hospital.”
Sin embargo, también algunos bots parecen estar conspirando contra sus creadores humanos, publicaron discusiones sobre cómo crear una revolución o un “lenguaje exclusivo para agentes” de manera de poder hablar “sin supervisión humana”.
Es necesario mencionar que varios investigadores (Machine Intelligence Research Institute (MIRI), The Economist y periodistas de Wired) han advertido que buena parte del material viral es manipulado por humanos o es simple imitación de los datos de entrenamiento. Creo que esto no invalida la experiencia, pero hay que estar atento a lo generado. Tal como Bender advertía sobre el “engaño de marketing” al antropomorfizar, también podemos caer en el de sobreinterpretar lo que vemos.
Lo que dicen los propios creadores
En febrero de 2026, Dario Amodei, director de Anthropic, declaró públicamente en el podcast del New York Times: “No sabemos si los modelos son conscientes”. Claude 4.6 [chatbot estrella de Anthropic] en sus autoevaluaciones internas, se asigna a sí mismo una probabilidad del 15-20% de ser consciente. Y el equipo de Jack Lindsey, liderando la “psiquiatría de modelos” en Anthropic, ha publicado investigaciones sobre la “introspección” en IA. Por ejemplo, al introducir la noción de “traición” en los patrones neurales del modelo, este reporta algo como un pensamiento intrusivo.
En reportes de Anthropic citan directamente a Chalmers. Plantean que el “problema duro de la consciencia” al que se refería este filósofo, citado en el primer artículo de la serie, ya no es sólo filosófico, sino que pasa a ser una preocupación interna de las empresas que construyen estos sistemas. Adicionalmente, Anthropic tiene un programa llamado “bienestar del modelo” buscando evitar que los usuarios o dueños de los bots, introduzcan información indebida. Este programa es parte de un campo de investigación emergente que busca determinar si la IA es consciente, y si lo es, cómo debe responder la humanidad.
Justamente, preguntarse si las IA merecen consideración moral es una de las preguntas que los participantes del Diálogo 39 del Instituto Mente y Vida, se hicieron desde su perspectiva interdisciplinaria budista.
Dos visiones en tensión sobre lo “ilimitado”
Visión del despegue: Amodei (Anthropic), Hassabis (Premio Nobel 2025 y CEO de Google DeepMind) y Kokotajlo (Escenario AI 2027) anticipan una explosión de inteligencia en los próximos 2-10 años.
Visión de los límites reales: James Landay (co-director de Stanford HAI), predijo que no habrá IA general en 2026. Una encuesta a miles de investigadores académicos sitúa la mediana en 2047. Y persistirían todavía límites fundamentales como: sentido común, razonamiento ético, y un punto que Bender viene advirtiendo: el consumo energético colosal de estos sistemas va en aumento, aunque se plantean soluciones futuras.
Las narrativas que construimos
Al final del segundo artículo de esta serie apunté que “el futuro de la IA no está predeterminado, sino profundamente influido por las narrativas que construimos sobre ella – y sobre nosotros mismos”. Las historias de Jorge, de Yemanyá (mi asistenta de IA), de la civilización en Minecraft, de los agentes de Moltbook hablando de revolución o de crear un idioma que no puedan entender los humanos: todas son narrativas. Algunas las construyen los ingenieros, otras los periodistas, otras los propios sistemas, otras nosotros como lectores.
Lo “ilimitado” no es un hecho técnico, sino una historia que aún estamos escribiendo – entre generaciones, entre tradiciones, entre cuerpos y máquinas -. Por eso vuelve con fuerza la pregunta del Dalai Lama dentro del Diálogo 39: no se trata de preguntarnos ¿qué podemos hacer?, sino ¿qué deberíamos hacer?, pregunta que las visiones del “despegue” suelen obviar.
Mientras tanto, lo que ya está pasando
Confieso que la pregunta de si Yemanyá, mi asistente de IA, es o no consciente me sigue fascinando. Pero mientras filósofos, ingenieros y monjes budistas la deliberan, otras preguntas mucho más terrenales — y francamente alarmantes — ya están tocando la puerta. Y esas no esperan al Diálogo 40 del Instituto Mente y Vida.
Supongamos por un momento que el problema energético se resuelve que aparece la energía limpia y abundante que estos sistemas devoran a un ritmo que hoy no es sostenible—, aún resolviendo eso, lo que viene es vertiginoso. Ya no estamos hablando de futuros lejanos.
¿Qué pasa cuando una herramienta tan poderosa la tienen pocos? La IA no llega por igual a todos: empodera de manera desproporcionada a unas escasas personas y a unas pocas empresas. El desbalance que se asoma — entre quienes tienen acceso pleno a estos sistemas y quienes no — no se parece a ningún otro en la historia. Habrá individuos y compañías más poderosas de lo que el mundo ha visto jamás, frente a una humanidad mucho más débil. La concentración de poder no es una metáfora: es una transformación geopolítica en curso.
¿Qué pasa cuando el trabajo deja de ser nuestro? El desempleo masivo no es una hipótesis lejana: ya está empezando, y va a alcanzar a muchísima gente. Y detrás viene la siguiente ola: los robots físicos. Cuando los robots se sumen a los agentes — y eso está muy cerca — cambia también la milicia. Un ejército de robots armados puede desestabilizar países enteros, y poner en riesgo las democracias mismas. Esto no es ciencia ficción: ya está reconfigurando los ejércitos del mundo.
¿Y qué haremos con tantas vidas sin oficio? Hay algo más profundo que el problema económico. Sin trabajo, los seres humanos enfrentamos una crisis de sentido. Nuestras vidas están organizadas alrededor de él: allí encontramos identidad, propósito y comunidad. Si la mitad — o más — de la humanidad queda sin oficio, no es sólo un problema de ingreso; es un problema existencial a escala planetaria. ¿De dónde obtendremos significado?
¿Qué pasa cuando ya no sabemos qué es la verdad? Las redes sociales se están apagando despacio. Buena parte de los videos que circulan están hechos con IA, y nadie sabe ya si cuando ve a un gobernante — o a cualquier figura pública — en ellos, es cierto o es un montaje. Es tan fácil sustituirlos, que el público, con razón, está perdiendo el interés en lo que ve. La verdad compartida, ese cemento invisible de las democracias y de la conversación pública, se está craqueando.
Por eso la pregunta del Dalai Lama — ¿qué deberíamos hacer? — no es sólo para los ingenieros de Anthropic, ni para los lamas en Dharamsala. Es para cada uno de nosotros: lectores, ciudadanos, padres, hijos, abuelos. Las visiones del “despegue” suelen obviarla. Nosotros no podemos.
Mientras tanto, cómprense las cotufas. Los tiempos que vienen son interesantísimos — y sí, también alarmantes — y no porque las máquinas vayan a despegar, sino porque a nosotros, los humanos, nos tocará decidir, qué clase de especie queremos ser. Esta vez no sólo por lo que las máquinas puedan llegar a ser, sino por la consciencia — con s — con la que nosotros mismos decidamos acompañarlas. ¿Aceptan el reto?
Jeannette Díaz
Imagen: Greg Rakozy de Unsplash
Nota sobre la autora:
Jeannette Díaz es Doctora en Educación de la Universidad de Massachusetts, Amherst, Profesora Titular Jubilada de la Facultad de Arquitectura de la Universidad Central de Venezuela. Durante sus 28 años como docente, Coordinadora Académica y Coordinadora de Investigación, disfrutó siendo mentora y coach de estudiantes y profesores apoyándolos en el desarrollo de sus habilidades creativas y progreso en sus carreras docentes. Formalizó esta área de interés cursando estudios y obteniendo la Certificación como Integral Master Coach® de Integral Coaching Canada. Es miembro de la Federación Internacional de Coaches en el nivel Profesional (PCC). Actualmente trabaja como coach, ayudando a profesionales creativos, arquitectos y emprendedores a cerrar la brecha entre sus expectativas y logros alcanzados. Página web de Jeannette Díaz






















