Jackson Cionek
27 Views

Burbujas de conocimiento, óptimos locales y colectividad asistida por IA

Burbujas de conocimiento, óptimos locales y colectividad asistida por IA

Bloque: Colectividad, Sincronía, Liderazgo y Sentido Crítico

Subtítulo:
Una colectividad también puede quedar atrapada. No solo por miedo, por liderazgo capturado o por narrativas falsas, sino por una inteligencia que parece ampliar al grupo mientras apenas acelera el mismo sesgo compartido.

La sensación en el cuerpo es conocida. Aparece una duda en el grupo. Nadie quiere perder demasiado tiempo. La IA responde rápido, fluida, limpia. El pecho se relaja antes de la verificación. La frente se afloja antes de la revisión. La conversación vuelve a moverse. El grupo siente que avanzó. Pero, a veces, no avanzó. Solo encontró un lugar cómodo para detenerse.

Aquí la imagen del óptimo local ayuda mucho. En computación, un sistema puede estabilizarse en una solución suficientemente buena como para dejar de buscar, aunque todavía no haya encontrado la mejor dirección posible. En el cuerpo, eso aparece como alivio prematuro. La respuesta encaja. La fricción baja. El grupo vuelve a respirar. Y, precisamente por eso, la exploración cae. La pregunta pierde fuerza. La contrastación pierde urgencia. La colectividad se vuelve más coordinada, pero no necesariamente más libre.

Ese es el punto central de este cierre: una colectividad asistida por IA no es, por sí sola, una colectividad más crítica. Muchas veces es solo una colectividad más rápida, más confiada y con más apariencia de inteligencia. El grupo sigue girando alrededor de los mismos supuestos, los mismos filtros y los mismos estilos de razonamiento. Solo que ahora lo hace con más velocidad, más comodidad y menos fricción interna. [1][2][3]

Aquí aparece un sesgo importante: el de la predictividad. No solo pensamos. También apostamos por lo que creemos que va a pasar. Tendemos a aceptar con más facilidad aquello que confirma la anticipación que ya estaba formándose en el cuerpo. Y la IA entra exactamente en ese circuito, porque los modelos de lenguaje son sistemas estadísticos entrenados para predecir continuaciones probables a partir del contexto previo. En otras palabras, la IA no “sabe” primero y responde después; calcula continuidades probables a partir de los datos con los que fue entrenada y del contexto que nosotros mismos ponemos en el prompt. [4][5]

Por eso, cuando la respuesta de la IA encaja con lo que el grupo ya sospechaba, deseaba o temía, la tendencia es validarla demasiado pronto. Un trabajo reciente sobre toma de decisiones asistida por IA mostró que profesionales confiaron más y aceptaron más recomendaciones de IA cuando esas recomendaciones eran congruentes con su juicio inicial y su intuición. Otro estudio, desde una perspectiva metacognitiva, sugiere que cuando la lógica de la IA parece alinearse con la lógica de la persona, esa alineación refuerza la sensación de estar “en el camino correcto” y ayuda a sostener la estrategia que ya estaba en marcha. En lenguaje corporal: cuando la máquina confirma el compás que ya estaba vivo dentro de nosotros, la duda pierde espacio. [6][7]

Y esto importa mucho, porque somos nosotros quienes hacemos las preguntas y somos nosotros quienes entregamos el material inicial de la conversación. El grupo lleva al prompt sus recortes, sus miedos, sus intereses, sus vacíos, sus encuadres. La IA trabaja sobre eso. Raspa patrones estadísticos del corpus con el que fue entrenada y del contexto que recibió en la pregunta. Entonces, el sesgo no está solo “en la máquina”. Puede nacer de la unión entre lo que el grupo ya espera, la forma en que el grupo pregunta y la manera en que el modelo continúa probabilísticamente esa trayectoria. El resultado puede ser una respuesta muy convincente y, aun así, estrecha.

Ese estrechamiento se vuelve todavía más fuerte cuando la dependencia se convierte en hábito. Una revisión sistemática de 2024 sobre over-reliance en sistemas dialogales de IA relacionó alucinación, sesgo algorítmico y falta de transparencia con impactos sobre la toma de decisiones, el pensamiento crítico y la capacidad analítica. En 2025, otro estudio encontró que una mayor dependencia de la IA se asociaba con menor pensamiento crítico, y que la fatiga cognitiva mediaba parte de esa relación. En lenguaje incorporado: cuanto antes el grupo entrega el peso de la elaboración, menos sostiene musculatura propia para contrastar, dudar y reconstruir. [1][2]

Hay otro problema: la IA no entra en el grupo como una superficie neutra. Revisiones recientes sobre bias y fairness en LLMs muestran que estos sistemas pueden aprender, perpetuar y amplificar sesgos sociales dañinos. Y trabajos sobre amplificación iterativa del sesgo sugieren que interacciones repetidas entre modelos, textos y usuarios pueden magnificar inclinaciones sutiles con el tiempo. Esto dialoga directamente con nuestra imagen de la burbuja: si el grupo sigue preguntando de formas parecidas, sigue validando lo que confirma sus anticipaciones y sigue recibiendo respuestas producidas por modelos entrenados sobre distribuciones ya sesgadas, la colectividad puede volverse cada vez más lisa por fuera y más estrecha por dentro. [3][8]

También existe el riesgo de la confianza inflada. Un estudio de 2025 con trabajadores del conocimiento encontró que una mayor confianza en la IA generativa se asociaba con menos pensamiento crítico, mientras que una mayor autoconfianza se asociaba con más pensamiento crítico. Eso es decisivo aquí, porque muestra que el peligro no está simplemente en “usar IA”, sino en entrar en una relación donde la fluidez de la respuesta de la máquina sustituye la elaboración propia del grupo. El cuerpo agradece la facilidad. Pero agradecer no es lo mismo que comprender. [9]

Y todo esto se vuelve más peligroso porque el lenguaje de la IA puede sonar impecable incluso cuando la base está equivocada. Investigaciones recientes sobre hallucination describen exactamente eso: salidas fluidas, coherentes y plausibles que aun así pueden ser factualmente incorrectas, inconsistentes o fabricadas. El cuerpo colectivo, sin embargo, muchas veces responde primero a la fluidez y no a la verificación. La respuesta suena correcta, y ese sonar-correcta ya puede bastar para estabilizar la conversación dentro de un óptimo local. [10]

En el vocabulario BrainLatam2026, este punto es decisivo. Una colectividad en Zona 2 tal vez use la IA como apoyo parcial, manteniendo contraste, revisión, retorno al cuerpo-territorio y apertura a la diferencia. Ya una colectividad en Zona 3 tiende a usar la IA como sello de cierre: llega la respuesta, el grupo se calma, cae la divergencia, sube la apariencia de inteligencia y disminuye la plasticidad. La máquina no crea por sí sola la burbuja, pero puede endurecerla con elegancia. [1][2][9]

Por eso, la pregunta más importante no es solo:
¿la IA acertó o se equivocó?

Sino esta:
¿qué le está haciendo la IA al metabolismo cognitivo del grupo?
¿Está abriendo más variación, más contraste, más capacidad de revisar?
¿O solo está reduciendo fricción, acelerando consenso y ofreciendo un óptimo local con perfume de inteligencia?

Tal vez la señal más peligrosa no sea cuando la IA responde mal.
Tal vez sea cuando responde demasiado bien para un grupo que ya no quiere salir de su propia burbuja.

Porque la colectividad asistida por IA puede parecer expansión.
Pero, sin criticidad incorporada, también puede ser solo encierro con buena interfaz.

Referencias

[1] Zhai et al., 2024 — The Effects of Over-Reliance on AI Dialogue Systems on Students’ Cognitive Abilities: A Systematic Review — Revisión sistemática que relaciona alucinación, sesgo algorítmico y falta de transparencia con exceso de dependencia, afectando decisión, pensamiento crítico y capacidad analítica.

[2] Tian & Zhang, 2025 — Learners’ AI Dependence and Critical Thinking: The Psychological Mechanism of Fatigue and the Social Buffering Role of AI Literacy — Muestra que una mayor dependencia de la IA se asoció con menor pensamiento crítico, con la fatiga cognitiva mediando parte de esa relación.

[3] Gallegos et al., 2024 — Bias and Fairness in Large Language Models: A Survey — Revisión amplia que muestra que los LLMs pueden aprender, perpetuar y amplificar sesgos sociales dañinos.

[4] Minaee et al., 2025 — Large Language Models: A Survey — Describe los LLMs como modelos estadísticos de lenguaje entrenados en grandes corpus textuales y explica la base probabilística de la predicción y continuación de tokens.

[5] Ramaswamy, 2026 — NeuroAI: Bridging Brain Science and Artificial Intelligence — Destaca que los sistemas actuales de IA todavía alucinan, tienen dificultades de adaptación y pueden amplificar equívocos cuando se construyen sobre una comprensión incompleta del cerebro, planteando NeuroAI como diálogo y no como sustitución automática del juicio humano.

[6] Bashkirova & Krpan, 2024 — Confirmation Bias in AI-Assisted Decision-Making: AI Triage Recommendations Congruent with Expert Judgments Increase Psychologist Trust and Recommendation Acceptance — Muestra que las recomendaciones de IA congruentes con el juicio inicial del usuario tienden a aumentar confianza y aceptación.

[7] von Zahn et al., 2025 — Knowing (Not) to Know: Explainable Artificial Intelligence and Human Metacognition — Muestra cómo la alineación o desalineación entre la lógica percibida de la IA y la lógica humana puede modular confianza, delegación y control metacognitivo.

[8] Ren et al., 2024 — Bias Amplification in Language Model Evolution: An Iterated Learning Perspective — Propone que interacciones repetidas entre modelos pueden amplificar sesgos sutiles con el tiempo.

[9] Lee et al., 2025 — The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers — Indica que una mayor confianza en GenAI se asoció con menos pensamiento crítico, mientras que una mayor autoconfianza se asoció con más pensamiento crítico.

[10] Huang et al., 2025 / Anh-Hoang et al., 2025 — revisiones recientes sobre hallucination en LLMs — Describen la alucinación como una salida fluida y plausible que aun así puede ser incorrecta, inconsistente o fabricada.



#eegmicrostates #neurogliainteractions #eegmicrostates #eegnirsapplications #physiologyandbehavior #neurophilosophy #translationalneuroscience #bienestarwellnessbemestar #neuropolitics #sentienceconsciousness #metacognitionmindsetpremeditation #culturalneuroscience #agingmaturityinnocence #affectivecomputing #languageprocessing #humanking #fruición #wellbeing #neurophilosophy #neurorights #neuropolitics #neuroeconomics #neuromarketing #translationalneuroscience #religare #physiologyandbehavior #skill-implicit-learning #semiotics #encodingofwords #metacognitionmindsetpremeditation #affectivecomputing #meaning #semioticsofaction #mineraçãodedados #soberanianational #mercenáriosdamonetização
Author image

Jackson Cionek

New perspectives in translational control: from neurodegenerative diseases to glioblastoma | Brain States