IA explicável no controle de tráfego aéreo: quando a confiança depende da experiência e da carga mental
IA explicável no controle de tráfego aéreo: quando a confiança depende da experiência e da carga mental
O estudo de Cartocci e colegas (2026) analisa um tema cada vez mais importante em sistemas críticos: como profissionais do controle de tráfego aéreo reagem a sistemas de inteligência artificial explicável (XAI). O foco do artigo é entender como a expertise do usuário influencia três dimensões centrais: carga de trabalho, aceitação da IA e intenção de uso. O artigo foi publicado em Brain Informatics em 24 de janeiro de 2026.
O ponto mais relevante aqui não é apenas saber se a IA “funciona”, mas se ela consegue ser aceita, compreendida e incorporada por humanos que operam em ambientes de alta responsabilidade. Em controle aéreo, isso é decisivo: não basta a máquina acertar; ela precisa explicar de modo útil para quem está sob pressão temporal e cognitiva. O próprio enquadramento do artigo parte dessa necessidade de explicabilidade para sustentar confiança e uso em um domínio de segurança crítica.
confiança depende da experiência e da carga mental
O que o artigo mostrou
Pelo próprio título e resumo indexado, o estudo investigou os efeitos da expertise sobre workload, acceptance e usage intentions diante de uma solução de IA explicável em controle de tráfego aéreo. Ou seja, o trabalho não tratou só da tecnologia em si, mas do encontro entre tecnologia, experiência profissional e custo cognitivo.
Isso é importante porque, em sistemas complexos, a explicação não é um detalhe visual ou uma camada “bonita” sobre o algoritmo. A explicação é parte da própria interface de decisão. Dependendo do nível de experiência do operador, uma mesma explicação pode ser percebida como ajuda, excesso de informação ou até ruído. Essa é a contribuição mais fértil do artigo: mostrar que explicabilidade útil não é universal, mas depende do tipo de usuário que recebe a recomendação. Essa leitura é apoiada pelo foco explícito do estudo em expertise, carga de trabalho, aceitação e intenção de uso.
Leitura pela Neurociência Decolonial
Sob a lente da Neurociência Decolonial, esse artigo ajuda a desmontar uma fantasia tecnocrática muito comum: a ideia de que basta inserir IA em um sistema complexo para melhorar automaticamente a decisão humana. Não. Entre a recomendação algorítmica e a ação humana existe um corpo, uma história de treino, uma percepção situada de risco e uma ecologia cognitiva concreta.
A decisão em controle aéreo não é puramente lógica. Ela envolve atenção sustentada, previsão, leitura de contexto, memória operacional, confiança e senso de responsabilidade. Nesse sentido, a explicabilidade precisa conversar com a mente encarnada do operador, e não apenas com o modelo matemático. O estudo reforça isso ao colocar a expertise como variável central da aceitação e do uso.
Aqui a Mente Damasiana entra de forma muito produtiva: decidir bem em contexto de alta pressão depende de um cérebro-corpo que consiga integrar sinais, reduzir ambiguidade e agir sem colapsar em sobrecarga. Uma IA explicável só será realmente útil se ajudar essa integração, e não se competir com ela.
Avatar interpretativo: Jiwasa e APUS
Neste artigo, eu usaria dois avatares, com predominância de Jiwasa.
Jiwasa porque o controle aéreo é um sistema de coordenação entre múltiplas inteligências humanas e artificiais. Não é um cérebro isolado decidindo sozinho. É uma ecologia de sincronizações.
APUS também aparece, porque o operador precisa manter um tipo de propriocepção estendida do território aéreo. Mesmo sem tocar diretamente os aviões, ele precisa sentir posições, trajetórias, conflitos potenciais e margens de segurança como se estivesse cognitivamente distribuído naquele espaço.
Sob essa leitura, a IA explicável não deveria ser apenas um “oráculo”. Ela deveria funcionar como extensão coordenativa do corpo-território cognitivo do controlador.
Conexão com Eus Tensionais e Zonas 1, 2 e 3
Esse estudo conversa fortemente com os Eus Tensionais.
Na Zona 1, o profissional sustenta o eu funcional do trabalho: monitora, compara, corrige, prioriza, decide.
Na Zona 2, a interação com a IA pode se tornar fluida: a explicação entra como apoio, reduz fricção cognitiva e amplia a clareza operacional.
Na Zona 3, o excesso de carga, a baixa confiança ou explicações mal ajustadas podem sequestrar a atenção do operador. Em vez de apoiar, a IA passa a gerar rigidez, dúvida ou dependência disfuncional.
O grande valor do artigo está justamente em mostrar que a explicabilidade precisa ser pensada como regulação de carga cognitiva e não apenas como transparência abstrata. Em sistemas críticos, uma explicação ruim pode até aumentar workload, mesmo quando a recomendação algorítmica está correta. Essa inferência decorre diretamente do foco do estudo em workload, expertise e aceitação.
DREX Cidadão e Política Orgânica
A conexão com DREX Cidadão parece distante à primeira vista, mas não é. O artigo mostra que tecnologias de apoio só funcionam bem quando respeitam os limites metabólicos e cognitivos do humano. Isso vale também para a sociedade.
Uma população vivendo sob insegurança extrema, multitarefa forçada e sobrecarga crônica tende a operar mais em Zona 1 defensiva ou Zona 3, com menor margem para pensamento crítico. O DREX Cidadão, entendido como metabolismo mínimo garantido do corpo social, criaria condições para que humanos interajam melhor com sistemas complexos, inclusive IAs, sem viver em exaustão permanente.
Assim como um controlador aéreo precisa de interface adequada para decidir bem, o cidadão também precisa de base metabólica mínima para não ser esmagado por sobrecarga e opacidade institucional.
Perguntas novas para a BrainLatam
A explicabilidade ideal muda conforme o operador está em maior ou menor carga fisiológica?
Medidas de EEG, HRV, respiração e SpO₂ poderiam indicar quando uma explicação ajuda ou atrapalha?
Operadores experientes e novatos usam circuitos neurais diferentes ao avaliar recomendações de IA?
Há um ponto em que mais explicação deixa de ajudar e passa a aumentar ruído cognitivo?
Em contextos cooperativos, a IA explicável melhora a sincronização entre operadores humanos?
Possíveis desenhos experimentais
Um desenho BrainLatam forte seria combinar EEG + HRV + rastreamento ocular + desempenho operacional em simuladores de controle aéreo, comparando diferentes formatos de explicação para novatos e especialistas.
Outro caminho seria testar explicações adaptativas, nas quais a IA muda o nível de detalhe conforme sinais fisiológicos de carga mental.
Também seria promissor estudar equipes, e não apenas indivíduos, para verificar se a IA explicável melhora ou piora a coordenação coletiva em tarefas críticas.
Conclusão BrainLatam
O artigo de Cartocci e colegas mostra algo essencial: IA boa não é apenas IA precisa; é IA que entra em sintonia com a mente humana situada. Em domínios críticos como o controle de tráfego aéreo, explicabilidade não é luxo. É condição para confiança, uso real e segurança.
Numa leitura decolonial, isso significa abandonar a fantasia de tecnologia neutra e reconhecer que toda interface precisa respeitar corpo, experiência, território e carga cognitiva. A boa IA não substitui o humano. Ela precisa aprender a coordenar-se com ele.
Referência
Cartocci, G., Veyrié, A., Cavagnetto, N., Hurter, C., Degas, A., Ferreira, A., Ahmed, M. U., Begum, S., Barua, S., Inguscio, B. M. S., Ronca, V., Borghini, G., Di Flumeri, G., Babiloni, F., & Aricò, P. (2026). Explainable artificial intelligence in air traffic control: effects of expertise on workload, acceptance, and usage intentions. Brain Informatics, 13(1), 6. https://doi.org/10.1186/s40708-025-00287-6. (PubMed)
Explainable AI in Air Traffic Control: When Trust Depends on Experience and Mental Load
Cuando alfa se encuentra con teta: dinámica de frecuencia cruzada en la memoria de trabajo
When Alpha Meets Theta: Cross-Frequency Dynamics in Working Memory
Quando alfa encontra teta: a dinâmica cruzada que sustenta a memória de trabalho
Deep Sleep and the Infant Brain: Sensory Decoupling Depends on an Infant’s Sensory Profile
Sono profundo e cérebro infantil: o desacoplamento sensorial depende do perfil sensorial do bebê
GABA Dynamics Across Brain Networks in Autism: A Systems Perspective on Neural Regulation
Quando imaginamos falar, o cérebro já dança no ritmo da fala: o atraso motor-auditivo do ritmo Mu
Cuando el sonido guía al cuerpo: sincronía sensoriomotora y los ritmos del movimiento humano
When Sound Guides the Body: Sensorimotor Synchrony and the Rhythms of Human Movement
Quando o som guia o corpo: sincronia sensório-motora e os ritmos do movimento humano
Seeking Yourself or Losing Yourself?
Buscar-se ou perder-se? Zona 1, 2 e 3 entre drogas, narrativas e estados alterados de consciência
Una Latinoamérica libre - Neurociencia decolonial con estudios de hiperescaneo NIRS-EEG
Free Latin America - Decolonial Neuroscience with NIRS–EEG Hyperscanning
NIRS–EEG Hyperscanning para 5 Participantes

NIRS–EEG Hyperscanning for 5 Participants
#Decolonial
#Neuroscience
#ArtificialIntelligence
#HumanFactors
#Neuroergonomics
#CognitiveLoad
#Neuroscience
#AlphaWaves
#ThetaWaves
#BrainRhythms
#SensoryProcessing
#BabyBrain
#MuRhythm
#EmbodiedCognition
#DecisionMaking
#Consciousness
#Hyperscanning
#Multimodal
#EEG
#fNIRS
#CBDCdeVarejo
#PIX
#DREX
#DrexCidadão
#eegmicrostates #neurogliainteractions #eegmicrostates #eegnirsapplications #physiologyandbehavior #neurophilosophy #translationalneuroscience #bienestarwellnessbemestar #neuropolitics #sentienceconsciousness #metacognitionmindsetpremeditation #culturalneuroscience #agingmaturityinnocence #affectivecomputing #languageprocessing #humanking #fruición #wellbeing #neurophilosophy #neurorights #neuropolitics #neuroeconomics #neuromarketing #translationalneuroscience #religare #physiologyandbehavior #skill-implicit-learning #semiotics #encodingofwords #metacognitionmindsetpremeditation #affectivecomputing #meaning #semioticsofaction #mineraçãodedados #soberanianational #mercenáriosdamonetização