Thomas Cionek
5 Views

IA explicable en el control de tráfico aéreo: cuando la confianza depende de la experiencia y la carga mental

El estudio de Cartocci y colegas (2026) analiza un tema cada vez más importante en sistemas críticos: cómo los profesionales del control de tráfico aéreo reaccionan a los sistemas de inteligencia artificial explicable (XAI). El enfoque del artículo es entender cómo la experiencia del usuario influye en tres dimensiones centrales: carga de trabajo, aceptación de la IA e intención de uso. El artículo fue publicado en Brain Informatics el 24 de enero de 2026.

El punto más relevante aquí no es solo saber si la IA funciona, sino si logra ser aceptada, comprendida e incorporada por humanos que operan en entornos de alta responsabilidad. En el control aéreo, esto es decisivo: no basta con que la máquina acierte; debe explicar de manera útil para quien está bajo presión temporal y cognitiva. El propio marco del artículo parte de esta necesidad de explicabilidad para sustentar la confianza y el uso en un dominio de seguridad crítica.

Qué mostró el artículo

Por el título y el resumen indexado, el estudio investigó los efectos de la experiencia sobre la carga de trabajo, la aceptación y las intenciones de uso ante una solución de IA explicable en el control de tráfico aéreo. Es decir, el trabajo no trató solo de la tecnología en sí, sino del encuentro entre tecnología, experiencia profesional y costo cognitivo.

Esto es importante porque, en sistemas complejos, la explicación no es un detalle visual o una capa bonita sobre el algoritmo. La explicación es parte de la propia interfaz de decisión. Dependiendo del nivel de experiencia del operador, una misma explicación puede ser percibida como ayuda, exceso de información o incluso ruido. Esta es la contribución más fértil del artículo: mostrar que la explicabilidad útil no es universal, sino que depende del tipo de usuario que recibe la recomendación. Esta lectura está respaldada por el enfoque explícito del estudio en la experiencia, la carga de trabajo, la aceptación y la intención de uso.

Lectura desde la Neurociencia Decolonial

Bajo la lente de la Neurociencia Decolonial, este artículo ayuda a desmontar una fantasía tecnocrática muy común: la idea de que basta con insertar IA en un sistema complejo para mejorar automáticamente la decisión humana. No. Entre la recomendación algorítmica y la acción humana existe un cuerpo, una historia de entrenamiento, una percepción situada del riesgo y una ecología cognitiva concreta.

La decisión en el control aéreo no es puramente lógica. Involucra atención sostenida, previsión, lectura de contexto, memoria operativa, confianza y sentido de responsabilidad. En este sentido, la explicabilidad debe dialogar con la mente encarnada del operador, y no solo con el modelo matemático. El estudio refuerza esto al situar la experiencia como variable central de la aceptación y el uso.

Aquí la Mente Damasiana entra de forma muy productiva: decidir bien en un contexto de alta presión depende de un cerebro-cuerpo que logre integrar señales, reducir la ambigüedad y actuar sin colapsar por sobrecarga. Una IA explicable solo será realmente útil si ayuda a esa integración, y no si compite con ella.

Avatar interpretativo: Jiwasa y APUS

En este artículo, yo usaría dos avatares, con predominio de Jiwasa.

Jiwasa porque el control aéreo es un sistema de coordinación entre múltiples inteligencias humanas y artificiales. No es un cerebro aislado decidiendo solo. Es una ecología de sincronizaciones.

APUS también aparece, porque el operador necesita mantener un tipo de propiocepción extendida del territorio aéreo. Incluso sin tocar directamente los aviones, necesita sentir posiciones, trayectorias, conflictos potenciales y márgenes de seguridad como si estuviera cognitivamente distribuido en ese espacio.

Bajo esta lectura, la IA explicable no debería ser solo un oráculo. Debería funcionar como una extensión coordinativa del cuerpo-territorio cognitivo del controlador.

Conexión con los Yoes Tensionales y Zonas 1, 2 y 3

Este estudio dialoga fuertemente con los Yoes Tensionales.

En la Zona 1, el profesional sostiene el yo funcional del trabajo: monitorea, compara, corrige, prioriza, decide.

En la Zona 2, la interacción con la IA puede volverse fluida: la explicación entra como apoyo, reduce la fricción cognitiva y amplía la claridad operativa.

En la Zona 3, el exceso de carga, la baja confianza o las explicaciones mal ajustadas pueden secuestrar la atención del operador. En lugar de apoyar, la IA pasa a generar rigidez, duda o dependencia disfuncional.

El gran valor del artículo está justamente en mostrar que la explicabilidad debe pensarse como regulación de la carga cognitiva y no solo como transparencia abstracta. En sistemas críticos, una mala explicación puede incluso aumentar la carga de trabajo, incluso cuando la recomendación algorítmica es correcta. Esta inferencia surge directamente del enfoque del estudio en la carga de trabajo, la experiencia y la aceptación.

DREX Ciudadano y Política Orgánica

La conexión con el DREX Ciudadano parece distante a primera vista, pero no lo es. El artículo muestra que las tecnologías de apoyo solo funcionan bien cuando respetan los límites metabólicos y cognitivos del humano. Esto también se aplica a la sociedad.

Una población que vive bajo inseguridad extrema, multitarea forzada y sobrecarga crónica tiende a operar más en una Zona 1 defensiva o en la Zona 3, con menos margen para el pensamiento crítico. El DREX Ciudadano, entendido como el metabolismo mínimo garantizado del cuerpo social, crearía las condiciones para que los humanos interactúen mejor con sistemas complejos, incluidas las IA, sin vivir en agotamiento permanente.

Así como un controlador aéreo necesita una interfaz adecuada para decidir bien, el ciudadano también necesita una base metabólica mínima para no ser aplastado por la sobrecarga y la opacidad institucional.

Nuevas preguntas para BrainLatam

1. ¿La explicabilidad ideal cambia según el operador esté bajo una mayor o menor carga fisiológica?
2. ¿Medidas de EEG, HRV, respiración y SpO2 podrían indicar cuándo una explicación ayuda o estorba?
3. ¿Los operadores experimentados y los novatos utilizan circuitos neurales diferentes al evaluar recomendaciones de IA?
4. ¿Existe un punto en el que más explicación deja de ayudar y pasa a aumentar el ruido cognitivo?
5. En contextos cooperativos, ¿la IA explicable mejora la sincronización entre operadores humanos?

Posibles diseños experimentales

Un diseño fuerte para BrainLatam sería combinar EEG + HRV + seguimiento ocular + desempeño operativo en simuladores de control aéreo, comparando diferentes formatos de explicación para novatos y especialistas.

Otro camino sería probar explicaciones adaptativas, en las que la IA cambie el nivel de detalle según las señales fisiológicas de carga mental.

También sería prometedor estudiar equipos, y no solo individuos, para verificar si la IA explicable mejora o empeora la coordinación colectiva en tareas críticas.

Conclusión BrainLatam

El artículo de Cartocci y colegas muestra algo esencial: una buena IA no es solo una IA precisa; es una IA que entra en sintonía con la mente humana situada. En dominios críticos como el control de tráfico aéreo, la explicabilidad no es un lujo. Es una condición para la confianza, el uso real y la seguridad.

En una lectura decolonial, esto significa abandonar la fantasía de la tecnología neutra y reconocer que toda interfaz debe respetar el cuerpo, la experiencia, el territorio y la carga cognitiva. La buena IA no reemplaza al humano. Necesita aprender a coordinarse con él.

Referencia

Cartocci, G., Veyrié, A., Cavagnetto, N., Hurter, C., Degas, A., Ferreira, A., Ahmed, M. U., Begum, S., Barua, S., Inguscio, B. M. S., Ronca, V., Borghini, G., Di Flumeri, G., Babiloni, F., & Aricò, P. (2026). Explainable artificial intelligence in air traffic control: effects of expertise on workload, acceptance, and usage intentions. Brain Informatics, 13(1), 6. https://doi.org/10.1186/s40708-025-00287-6. (PubMed)

#eegmicrostates #neurogliainteractions #eegmicrostates #eegnirsapplications #physiologyandbehavior #neurophilosophy #translationalneuroscience #bienestarwellnessbemestar #neuropolitics #sentienceconsciousness #metacognitionmindsetpremeditation #culturalneuroscience #agingmaturityinnocence #affectivecomputing #languageprocessing #humanking #fruición #wellbeing #neurophilosophy #neurorights #neuropolitics #neuroeconomics #neuromarketing #translationalneuroscience #religare #physiologyandbehavior #skill-implicit-learning #semiotics #encodingofwords #metacognitionmindsetpremeditation #affectivecomputing #meaning #semioticsofaction #mineraçãodedados #soberanianational #mercenáriosdamonetização
Author image

Jackson Cionek

New perspectives in translational control: from neurodegenerative diseases to glioblastoma | Brain States