EEG/fMRI y Ecolocalización Humana: Cómo el Cuerpo Acumula Evidencias a Través del Sonido
EEG/fMRI y Ecolocalización Humana: Cómo el Cuerpo Acumula Evidencias a Través del Sonido
La ecolocalización humana puede parecer, al principio, una habilidad extraordinaria: personas ciegas producen clics con la boca y usan los ecos que regresan para percibir objetos, direcciones y espacios. Pero el estudio de García-Lázaro y Teng muestra algo todavía más profundo: el cerebro no percibe el espacio de una sola vez. Acumula evidencias a través del sonido.
La pregunta científica del artículo es muy bella: ¿la percepción espacial en la ecolocalización depende de un único eco ideal o emerge de la integración progresiva de varios ecos a lo largo del tiempo? Para responder, los investigadores combinaron psicofísica con EEG en especialistas ciegos en ecolocalización y participantes videntes sin entrenamiento.
El estudio merece reconocimiento porque toma una habilidad humana real, usada en la vida cotidiana por algunas personas ciegas, y la transforma en una pregunta experimental precisa. En vez de tratar la ecolocalización como curiosidad, el artículo pregunta cómo el cerebro construye una representación espacial cuando la visión no está disponible.
Participaron 4 especialistas ciegos en ecolocalización, todos hombres, y 21 participantes videntes novatos, 12 de ellos hombres. Los especialistas fueron reclutados por su uso activo y prolongado de ecolocalización con clics bucales en actividades diarias. Los controles videntes no tenían entrenamiento en ecolocalización, y todos los participantes tenían audición normal evaluada por audiometría.
Los estímulos fueron clics de boca sintetizados y ecos espacializados, simulando un objeto virtual a 1 metro de distancia, en diferentes posiciones horizontales: 5°, 10°, 15°, 20° o 25° a la izquierda o a la derecha. Cada ensayo presentaba secuencias de 2, 5, 8 u 11 clics, separados por 750 ms. La tarea era decidir si el objeto virtual estaba localizado a la izquierda o a la derecha de la línea media corporal. La Figura 1 muestra la generación de los clics, la estructura de la tarea y el pipeline EEG/MVPA.
El EEG fue registrado con un sistema Brain Products actiCHamp Plus, usando 64 canales, una gorra EasyCap en configuración 10–20 modificada, Fz como referencia online, digitalización a 1000 Hz y StimTrak, también de Brain Products, para marcar con precisión el inicio de los estímulos auditivos. Esto es muy relevante para BrainLatam/Brain Support porque muestra un diseño EEG auditivo de alta precisión temporal, compatible con estudios de percepción, toma de decisión y neurociencia ecológica.
Los resultados conductuales fueron claros. Los especialistas ciegos tempranos tuvieron un desempeño muy superior al de los controles videntes. Los tres participantes con ceguera temprana superaron el 88% de aciertos, mientras que los controles videntes quedaron cerca del azar, con una media de 51,83%. El participante con ceguera tardía quedó por encima del azar, pero no difirió estadísticamente de los controles videntes.
Este punto es muy importante: la ecolocalización no depende solo de oír sonidos. Involucra experiencia, entrenamiento, cuerpo e historia sensorial. La ceguera temprana parece favorecer una reorganización más profunda de la percepción espacial auditiva, mientras que la ceguera tardía puede conservar referencias espaciales más calibradas por la visión.
El hallazgo central aparece cuando los autores analizan el número de clics. Para los especialistas ciegos, especialmente EB2 y EB3, la precisión mejoró conforme aumentaba el número de clics. Es decir: cada clic agregaba información. El cerebro no estaba simplemente esperando “el mejor eco”. Parecía sumar evidencias sucesivas hasta construir una representación espacial más estable.
La Figura 3 es muy didáctica: muestra que los umbrales de localización disminuyen con más clics. En términos simples, cuanto más muestras acústicas recibía el ecolocalizador, menor podía ser la diferencia espacial necesaria para localizar el objeto. Para EB2, cada clic adicional mejoró la precisión aproximadamente 0,61°. Para EB3, la mejora fue aún más fuerte, cerca de 2° por clic, hasta alcanzar una meseta.
La Figura 4 muestra otro punto importante: cuando el objeto estaba más lateralizado, por ejemplo a 20° o 25°, se necesitaban menos clics para localizarlo. Cuando estaba cerca de la línea media, como a 5°, la tarea era más difícil y exigía más evidencia acumulada. Esto confirma que la percepción espacial por sonido depende tanto de la fuerza de las pistas acústicas como del número de muestras disponibles.
El EEG reveló la parte más fascinante. Usando MVPA con clasificadores SVM, los autores consiguieron decodificar si el eco venía de la izquierda o de la derecha. En los especialistas ciegos tempranos, la lateralidad del eco ya podía discriminarse neuralmente desde los primeros clics. En los controles videntes, esta decodificación significativa no apareció.
La Figura 5 muestra que el pico inicial de decodificación EEG se relacionó con el desempeño conductual: quienes tenían mejor discriminación neural de la lateralidad también localizaban mejor los ecos. Esto conecta directamente cerebro y conducta. No es apenas “actividad cerebral interesante”; es actividad neural relacionada con la capacidad real de percibir el espacio por sonido.
Otro resultado fuerte aparece en la evolución de la secuencia. La Figura 6 muestra que las respuestas neurales cambiaban según la posición ordinal del clic: primero, segundo, quinto, octavo, undécimo. Esto sugiere que el cerebro no responde a cada clic como si fuera idéntico al anterior. Actualiza su estado neural conforme la secuencia avanza.
Los modelos computacionales refuerzan esta idea. Los autores compararon reglas de lectura neural: suma acumulativa, mejor muestra aislada, softmax e inclinación a lo largo de la secuencia. En EB2, el mejor modelo fue la integración cumulativa. En EB3, el mejor modelo fue la integración sensible a la tasa de cambio. Ningún participante con variabilidad conductual suficiente favoreció una lectura estrictamente basada en una única mejor muestra.
Esto es central para BrainLatam2026: el cerebro ecolocalizador no parece funcionar como una cámara auditiva que captura una imagen lista. Funciona como un sistema vivo de muestreo, comparación, acumulación y decisión. Cada clic es una pregunta al territorio. Cada eco es una respuesta parcial. La percepción nace de la conversación entre cuerpo y mundo.
Un detalle microfisiológico puede profundizar esta lectura BrainLatam2026: la localización sonora depende de comparaciones extremadamente rápidas entre señales que llegan a ambos oídos. Diferencias mínimas de tiempo de llegada, fase e intensidad son procesadas en circuitos del tronco encefálico auditivo, especialmente en estructuras como la oliva superior medial y lateral. Las diferencias interaurales de tiempo y de nivel son pistas fundamentales para localizar sonidos en el eje horizontal, y estos cálculos dependen de circuitos binaurales capaces de comparar información proveniente de ambos oídos.
Aquí es donde las sinapsis eléctricas se vuelven relevantes. Están formadas por uniones comunicantes, frecuentemente asociadas a la connexina 36 — Cx36, y aparecen ampliamente en centros importantes del sistema auditivo en ratón y rata, incluyendo regiones con sinapsis puramente eléctricas y sinapsis mixtas, eléctricas y químicas. Estas sinapsis no “piensan” la dirección del sonido, pero ayudan a crear condiciones de acoplamiento, sincronización y transmisión temporal precisa, fundamentales para circuitos que comparan tiempos y fases en escalas muy pequeñas.
En el lenguaje BrainLatam2026, esto profundiza la idea de APUS: el cuerpo-territorio no comienza solamente en la corteza. Comienza en microdiferencias temporales entre los oídos, en fase, atraso, intensidad, sinapsis químicas y sinapsis eléctricas. Antes de “saber” de dónde viene el sonido, el cuerpo ya está comparando tiempos, fases y ecos. La ecolocalización humana muestra este principio en acción: el sonido sale del cuerpo, vuelve desde el territorio y es integrado por circuitos auditivos capaces de acumular evidencias espaciales clic tras clic.
Aunque el artículo usa EEG, la idea EEG/fMRI puede entrar como horizonte experimental futuro. El EEG muestra el tiempo: cuándo cada eco comienza a generar evidencia neural. La fMRI podría mostrar el espacio anatómico: redes auditivas, parietales, motoras, atencionales y posiblemente occipitales involucradas en la ecolocalización. Juntos, EEG y fMRI podrían unir dinámica temporal y localización cerebral.
Desde la lente de la Mente Damasiana, la ecolocalización es un ejemplo bellísimo de conciencia en acción. Interocepción, propriocepción y percepción auditiva no están separadas. La persona regula boca, mandíbula, respiración, cabeza, postura, oído y atención. El clic sale del cuerpo, toca el ambiente y regresa como información territorial.
Aquí entra APUS, como cuerpo-territorio. El ecolocalizador no está apenas oyendo el ambiente. Está extendiendo el cuerpo a través del sonido. El clic es una acción corporal que cruza el espacio y regresa como mapa. El ambiente deja de ser puramente externo y empieza a funcionar como una extensión sensible de la propriocepción.
La lente-avatar de este blog puede ser APUS con Jiwasa. APUS percibe el cuerpo-territorio; Jiwasa percibe el sincronismo entre cuerpo, sonido y ambiente. En la ecolocalización, el cuerpo no domina el mundo: conversa con el mundo. Cada eco es una respuesta del territorio.
Este estudio también conversa con los Yoes Tensionales. Un ecolocalizador experimentado organiza un Yo Tensional muy refinado: emitir, esperar, escuchar, comparar, decidir y moverse. No es tensión rígida. Es tensión funcional. Es un estado de disponibilidad sensible capaz de transformar sonido en dirección.
La pregunta BrainLatam2026 sería: ¿la alta performance en ecolocalización depende solo de la audición o de una integración más eficiente entre EEG, respiración, movimiento de cabeza, EMG facial/cervical, HRV/RMSSD, GSR y fNIRS? Para responder, podríamos crear un diseño multimodal con EEG + fNIRS + EMG + respiración + HRV/RMSSD + GSR + sensores inerciales, además de un estudio complementario con fMRI.
El EEG mostraría la acumulación rápida de evidencias clic por clic. La fNIRS observaría corteza prefrontal y parietal en tareas más naturales. La fMRI podría mapear redes auditivas, visuales y espaciales. El EMG registraría microacciones de la cara, mandíbula y cuello. Los sensores inerciales medirían pequeños movimientos de cabeza. HRV y respiración mostrarían regulación autonómica durante la exploración.
Un diseño latinoamericano podría comparar personas ciegas especialistas, personas ciegas iniciantes, videntes entrenados y niños en tareas sonoras de localización. También podríamos crear tareas en ambientes reales: corredores, salas de aula, plazas, bosques, senderos, espacios urbanos y territorios culturales. La pregunta sería: ¿cómo el cerebro-cuerpo aprende a transformar eco en pertenencia espacial?
La crítica decolonial generosa es que la neurociencia muchas veces separa percepción, cuerpo y territorio. Pero la ecolocalización muestra lo contrario. El mundo no solo es representado en el cerebro. Es explorado por ciclos de acción y retorno. En contextos latinoamericanos, esto abre espacio para estudiar orientación corporal en comunidades, prácticas de escucha, navegación en bosques, ríos, ciudades, música, danza y saberes corporales tradicionales.
El puente con DREX Cidadão aparece cuando pensamos en accesibilidad y políticas públicas. Las personas ciegas no necesitan solamente adaptación técnica; necesitan territorio accesible, seguridad, movilidad, educación sensorial y tecnologías que respeten su autonomía. Una sociedad en Zona 2 crea condiciones para que diferentes cuerpos amplíen su inteligencia perceptiva.
Cierre
Este estudio muestra que la ecolocalización humana no es magia. Es cuerpo, sonido, cerebro, sinapsis, tiempo, fase y territorio acumulando evidencias. Cada clic amplía el campo posible de acción. Para BrainLatam2026, esto es fundamental: percibir no es recibir el mundo listo; es construir presencia con el ambiente. La ecolocalización revela una neurociencia del APUS: el cuerpo se extiende por el sonido, escucha el retorno del territorio y transforma eco en dirección.
Referencias
García-Lázaro, H. G., & Teng, S. (2026). Neural and Behavioral Correlates of Evidence Accumulation in Human Click-Based Echolocation. eNeuro, 13(4). doi:10.1523/ENEURO.0342-25.2026.
Rubio, M. E., & Nagy, J. I. (2015). Connexin36 expression in major centers of the auditory system in the CNS of mouse and rat: Evidence for neurons forming purely electrical synapses and morphologically mixed synapses. Neuroscience, 303, 604–629. doi:10.1016/j.neuroscience.2015.07.026.
Pecka, M., Brand, A., Behrend, O., & Grothe, B. (2008). Interaural Time Difference Processing in the Mammalian Medial Superior Olive: The Role of Glycinergic Inhibition. Journal of Neuroscience, 28(27), 6914–6925. doi:10.1523/JNEUROSCI.1660-08.2008.
Keine, C., et al. (2025). Cellular and synaptic specializations for sub-millisecond sound localization in the mammalian auditory brainstem. Frontiers in Cellular Neuroscience.
Tierras Raras y Big Data: ¿Quién Está Minando Brasil?
Rare Earths and Big Data: Who Is Mining Brazil?
Terras Raras e Big Data: Quem Está Minerando o Brasil?
fMRI, Amenaza y Amígdala: Aprendizaje del Miedo, Extinción y Zona 3
fMRI, Threat, and the Amygdala: Fear Learning, Extinction, and Zone 3
fMRI, Ameaça e Amígdala: Aprendizagem do Medo, Extinção e Zona 3
EEG/fMRI y Ecolocalización Humana: Cómo el Cuerpo Acumula Evidencias a Través del Sonido
EEG/fMRI and Human Echolocation: How the Body Accumulates Evidence Through Sound
EEG/fMRI e Ecolocalização Humana: Como o Corpo Acumula Evidências pelo Som
EEG y Actividad Neural Aperiódica: Aprendizaje por Feedback Incluso sin Conciencia Visual
EEG and Aperiodic Neural Activity: Learning from Feedback Even Without Visual Awareness
EEG e Atividade Neural Aperiódica: Aprendizagem por Feedback Mesmo sem Consciência Visual
EEG, Memoria de Trabajo Visual y Reactivación Neural: Cuando la Atención Reenciende el Espacio
EEG, Visual Working Memory, and Neural Reactivation: When Attention Reignites Space
EEG, Memória de Trabalho Visual e Reativação Neural: Quando a Atenção Reacende o Espaço
fNIRS, Equilibrio y Performance: Actividad Cortical en Esquiadores Alpinos
fNIRS, Balance, and Performance: Cortical Activity in Alpine Skiers
fNIRS, Equilíbrio e Performance: Atividade Cortical em Esquiadores Alpinos
fNIRS and Deep Learning: Automated Quality Control in NIRS Signals
fNIRS e Deep Learning: Controle Automático de Qualidade em Sinais NIRS
fNIRS y Fisiología Sistémica: Por qué Medir el Cuerpo Mejora la Confiabilidad de la Neuroimagen
fNIRS and Systemic Physiology: Why Measuring the Body Improves Neuroimaging Reliability
fNIRS e Fisiologia Sistêmica: Por que Medir o Corpo Melhora a Confiabilidade da Neuroimagem
NIRS/fNIRS en Depresión: HD-tDCS, Control Cognitivo y Conectividad Prefrontal
NIRS/fNIRS in Depression: HD-tDCS, Cognitive Control, and Prefrontal Connectivity
NIRS/fNIRS em Depressão: HD-tDCS, Controle Cognitivo e Conectividade Pré-Frontal
fNIRS, Movimiento y Envejecimiento: Cómo las Piernas Conversan con la Función Ejecutiva
fNIRS, Movement and Aging: How the Legs Talk to Executive Function
fNIRS, Movimento e Envelhecimento: Como as Pernas Conversam com a Função Executiva
Hyperscanning, EEG/fNIRS y Coral: Sincronía Neurofisiológica en la Performance Colectiva
Hyperscanning, EEG/fNIRS and Choir: Neurophysiological Synchrony in Collective Performance
Hyperscanning, EEG/fNIRS e Coral: Sincronia Neurofisiológica na Performance Coletiva
fNIRS Hyperscanning e IA Generativa: El Efecto del Socio GAI en el Aprendizaje de Ciencias
fNIRS Hyperscanning and Generative AI: The GAI Partner Effect in Science Learning
fNIRS Hyperscanning e IA Generativa: O Efeito do Parceiro GAI na Aprendizagem em Ciências
NIRS, Bosques y Bienestar: Cuerpo-Territorio como Política Pública de Salud
NIRS, Forests and Well-Being: Body-Territory as Public Health Policy
NIRS, Florestas e Bem-Estar: Corpo-Território como Política Pública de Saúde
fNIRS, Neurourbanism and Body-Territory: How Walkable Environments Modulate the Prefrontal Cortex
fNIRS, Neurourbanismo e Corpo-Território: Como Ambientes Caminháveis Modulam o Córtex Pré-Frontal
EEG de Alta Densidad y EMG: El Cuerpo que Agarra, Siente y Organiza el Movimiento
High-Density EEG and EMG: The Body That Grasps, Feels and Organizes Movement
EEG de Alta Densidade e EMG: O Corpo que Agarra, Sente e Organiza o Movimento
fNIRS y Neurodesarrollo: Cómo los Bebés Prematuros Procesan Rostros con y sin Mascarilla
fNIRS and Neurodevelopment: How Preterm Infants Process Faces With and Without Masks
fNIRS e Neurodesenvolvimento: Como Bebês Prematuros Processam Rostos com e sem Máscaras

EEG NIRS fNIRS Multimodal Hyperscanning
#Decolonial
#Neuroscience
#BrainLatam2026
#EEG #ERP #NIRS #fNIRS
#Hyperscanning #EEGfNIRS
#MultimodalNeuroscience #BCI
#Neurorights #CognitiveSovereignty
#AffectiveComputing #DREXCidadao
#FALAN #OHBM #SfN #LatBrain
#CorpoTerritorio
#CBDCdeVarejo
#PIX
#Drex