IA permite a robots interpretar intenciones humanas a partir de señales cerebrales

Lectura 3 mins.
IA permite a robots interpretar intenciones humanas a partir de señales cerebrales

La IA ya permite a robots detectar errores a partir de señales cerebrales. Te decimos cómo funcionan y por qué pueden ser más seguros.

La idea de que un robot “lea la mente” suena a película. Pero la realidad va por otro lado. Hoy, la inteligencia artificial ya puede captar señales del cerebro para anticipar errores. No lee pensamientos completos. Detecta una reacción muy específica: cuando notas que algo no está bien.

Todo empieza con un problema real

Primero, el contexto. Controlar robots a distancia —lo que se conoce como teleoperación— no es sencillo. Exige atención constante. Y, si algo falla, no siempre hay tiempo de reaccionar. Aquí entra el equipo liderado por Hemanth Manjunatha, de la Universidad Estatal de Oklahoma. Su punto de partida es claro: necesitamos sistemas más seguros. Y más intuitivos.

La clave está en una señal del cerebro

Entonces, ¿qué hicieron? Usaron interfaces cerebro-computadora. Es decir, tecnología que capta señales eléctricas del cerebro. Pero no buscan pensamientos complejos. Buscan algo más simple: Una señal que aparece cuando detectas un error. Se conoce como ErrP. Es rápida. Automática. Y ocurre antes de que puedas reaccionar físicamente.

Después, entra la inteligencia artificial. El sistema interpreta esa señal en tiempo real. Y el robot actúa. Por ejemplo, puede frenar o corregir un movimiento. Incluso, devolver el control al humano. Todo ocurre en milisegundos.

No es el primer intento

Pero esto no es del todo nuevo. La ciencia ya venía trabajando en esto. Un estudio publicado en Scientific Reports en 2025 mostró que estas señales de error pueden detectarse de forma confiable en distintos usuarios. Y más importante: pueden ayudar a que los robots corrijan acciones equivocadas sin necesidad de una orden directa.

Por otro lado, investigaciones en Frontiers in Robotics and AI señalan que el cerebro también puede aportar información sobre fatiga, atención o estrés. Es decir, no solo qué haces, sino cómo estás mientras lo haces.

@soypulpoculto

¿Ya existe una máquina que lee la mente usando inteligencia artificial? Neurocientíficos de la Universidad de Austin, Texas han desarrollado la manera de traducir los escaneos de la actividad cerebral en palabras. El experimento consistió en poner al voluntario Alexander Huth en un resonador magnético con unos audífonos por poco más de 20 horas. Una vez iniciado el escaneo del cerebro, se activó el programa que usa inteligencia artificial para descifrar las imágenes y palabras que el usuario está viendo o escuchando. El problema actual es que el programa necesita bases de datos específicas de una persona y por eso con Alexander Huth funcionó maravilloso, ya que se desarrolló para él mientras que los propios científicos del proyecto intentaron usarlos, escuchando el audiolibro del mago de oz y la máquina no pudo leer nada. Esta máquina no será un peligro para la humanidad ya que el principal interés, es ayudar a gente que perdió la habilidad de hablar sin necesidad de hacer cirugías cerebrales. La tecnología en inteligencia artificial sigue en pañales y en la universidad de Austin aseguran que es muy difícil que pueda descifrar lo que estamos pensando, aún. Y no dejes que te espante con el aún, porque si bien la inteligencia artificial ya sabe cómo generar oraciones y sobre todo cómo estructuramos las ideas los humanos. *La máquina que nos haga el Profesor Xavier* no es posible desarrollando la tecnología actual ya que nuestro cerebro tiene la capacidad de disociarse Y aunque escuches o veas algo, si piensas en otra cosa, los escaneos cerebrales no tendrán éxito. Jerry Tang, uno de los líderes del proyecto reconoce que puede ser riesgosa esta tecnología y asegura que los datos recabados deberían mantenerse en privado y, aunque la máquina no pueda leer pensamientos del subconsciente, debería quedar prohibido el desarrollo de la tecnología para hacer eso. Para la psicología, el humano que lee mentes es imposible y que solo podemos generar modelos mentales para intuir los pensamientos y emociones de otros, la llamada empatía. Pero esta tecnología no solo la trabajan en Austin,Texas sino que la Universidad de Oregon generó un sistema para leer los pensamientos y recrear las caras que el usuario está viendo en su mente, de solo leer su escaneo cerebral. *Uno de los neurocientíficos del proyecto, declaró que pueden tomar la memoria de alguien y sacarla de su cerebro.* En este proyecto se tomaron 23 voluntarios y compilaron 1000 fotografías de personas aleatorias a color. Se les enseñaron estas fotos mientras estaban conectados a un resonador magnético, que mide los cambios del flujo sanguíneo en el cerebro y eso es la actividad neurológica y se mapearon las imágenes que se crean en el giro angular, que es una zona involucrada en los procesos de lenguaje, procesamiento de números, consciencia del espacio y la formación de recuerdos vívidos y también mapearon lo que generara el lóbulo occipital, que se encarga de procesar e interpretar la visión Y estos fueron los aterradores resultados Aún están muy lejos de poder recrear imágenes fieles a lo que vemos pero este proyecto tiene potencial y la tecnología está creciendo a pasos agigantados. ¿Peligroso o asombroso? #ia #inteligenciaartificial #cienciaentiktok #cienciadivertida #cienciaparatodos

♬ New Abundance – Omar Enfedaque

Para qué sirve en la vida real

Entonces, ¿por qué importa? Porque hay entornos donde no puedes equivocarte. Piensa en robots industriales, en rescates o en tareas peligrosas. Ahí, unos segundos hacen la diferencia. Si el robot puede reaccionar antes, el riesgo baja.

Al final, el avance no está en “leer la mente”. Está en mejorar la relación entre humanos y máquinas. Ya no se trata solo de dar órdenes. Ahora, el robot también puede “escuchar” una señal básica de alerta y actuar.

La verdadera pregunta

Esto apenas empieza. Pero deja una pregunta clara: ¿qué pasa cuando las máquinas no solo ejecutan, sino que también anticipan. Tal vez no estamos creando robots más inteligentes. Tal vez estamos creando robots menos propensos a equivocarse. Y eso, en muchos escenarios, importa más.

También podría interesarte: México impulsa la formación en Inteligencia Artificial y gana terreno en América Latina