Futuros AirPods capaces de interpretar señales cerebrales: qué planea Apple

  • Apple investiga un método de IA, PARS, para aprender patrones de EEG sin datos anotados
  • El oído se perfila como punto clave para medir actividad cerebral con sensores discretos en AirPods
  • Patentes de Apple describen auriculares con múltiples electrodos y procesado inteligente de bioseñales
  • Las posibles aplicaciones van desde la monitorización del sueño hasta la detección de anomalías neurológicas, con fuertes retos de privacidad

AirPods y lectura de señales cerebrales

Apple está trabajando en tecnologías que podrían convertir a los futuros AirPods en algo más que simples auriculares: dispositivos capaces de registrar e interpretar determinadas señales eléctricas procedentes del cerebro desde el propio oído. No se trata de ciencia ficción inmediata, pero sí de una línea de investigación que, a medio o largo plazo, podría cambiar la forma en que entendemos la salud digital.

Detrás de esta idea no hay un único proyecto, sino la combinación de estudios científicos, técnicas avanzadas de inteligencia artificial aplicadas a señales de electroencefalografía (EEG) y solicitudes de patente relacionadas con la medición de bioseñales desde el canal auditivo. Aunque hoy no haya un producto comercial anunciado, los documentos publicados por la compañía ofrecen pistas bastante claras sobre hacia dónde podrían ir los tiros.

La apuesta de Apple por descifrar el EEG sin anotaciones humanas

Uno de los pilares de esta posible evolución de los AirPods es un estudio en el que investigadores de Apple presentan un método para que un modelo de IA aprenda la estructura temporal de la actividad eléctrica cerebral sin depender de expertos que etiqueten manualmente los datos. Este enfoque se centra en aprovechar grandes volúmenes de registros EEG sin procesar.

El método, bautizado como PARS (PAirwise Relative Shift), se enmarca dentro del llamado aprendizaje autosupervisado. En lugar de indicar al sistema qué fragmentos corresponden a cada fase del sueño o a un episodio de epilepsia, el modelo recibe pares de segmentos de señal EEG extraídos al azar y debe adivinar cuál es el desplazamiento temporal entre ellos.

Al obligar a la IA a resolver este «puzzle» de posiciones relativas, PARS consigue que el modelo vaya captando la composición global de las señales neuronales a lo largo del tiempo, más allá de simples patrones locales. De esta manera, se obtienen representaciones internas útiles que luego se pueden reutilizar para tareas clínicas como la clasificación de etapas de sueño o la detección de convulsiones.

Según los resultados divulgados, los transformadores preentrenados con PARS igualaron o superaron el rendimiento de otras estrategias de aprendizaje autosupervisado en tres de cuatro pruebas con conjuntos de datos de EEG diferentes. Esto sugiere que el modelo no solo «rellena huecos» en la señal, sino que comprende relaciones de largo alcance entre distintos puntos de la actividad cerebral.

Uno de los aspectos más interesantes del estudio es que incluye registros tomados con sistemas de EEG auricular (ear-EEG), es decir, mediciones realizadas desde el oído en lugar de desde el cuero cabelludo. Esta variante resulta mucho más discreta y cómoda, y encaja perfectamente con la idea de integrarla en dispositivos como los AirPods.

Del laboratorio al oído: por qué el ear-EEG encaja con los AirPods

Entre los conjuntos de datos utilizados para evaluar PARS se encuentra EESM17 (Ear-EEG Sleep Monitoring 2017), que recopila grabaciones nocturnas con un sistema portátil de EEG de oído de varios canales, combinado con un EEG tradicional de cuero cabelludo. Este tipo de hardware demuestra que es viable obtener información cerebral relevante desde la oreja.

El EEG auricular emplea electrodos situados dentro o alrededor del oído externo. Aunque las señales son algo más débiles y ruidosas que las captadas directamente sobre la cabeza, siguen reflejando de manera independiente aspectos clínicamente útiles como las fases del sueño o ciertos patrones vinculados a crisis epilépticas. El beneficio evidente es que el dispositivo es menos aparatoso y mucho más discreto.

En el contexto de Apple, la compañía lleva años añadiendo sensores de salud a sus dispositivos: ECG en el Apple Watch, mediciones de oxígeno en sangre, frecuencia cardiaca avanzada y, más recientemente, sensores como el fotopletismógrafo (PPG) en auriculares. El paso siguiente, según dejan entrever investigaciones y patentes, sería explorar la monitorización de la actividad cerebral desde el oído.

La idea de que un futuro modelo de AirPods incorpore sensores EEG no parece tan descabellada si se tiene en cuenta esa formato ampliamente extendido. La combinación de un formato ampliamente extendido, como los auriculares inalámbricos, con nuevas capacidades médicas o de bienestar podría encajar bien con la estrategia de salud digital que Apple impulsa desde hace años.

En paralelo al estudio científico sobre PARS, también se han identificado documentos de propiedad intelectual que describen de forma bastante concreta cómo se podrían implementar estos sensores en un dispositivo de consumo masivo.

La patente que apunta a AirPods con sensores de bioseñales

En 2023, Apple registró una solicitud de patente para un «dispositivo electrónico portátil para medir bioseñales» desde el oído del usuario. Aunque el texto no menciona de forma explícita a los AirPods, las ilustraciones y descripciones recuerdan bastante al formato de unos auriculares intraaurales.

La patente señala que la actividad cerebral puede medirse no solo con electrodos sobre el cuero cabelludo, sino también con electrodos colocados dentro o alrededor de la oreja externa. Esta segunda opción ofrece ventajas evidentes: menor visibilidad de los sensores, más comodidad para el usuario y mayor movilidad, frente a los sistemas clínicos tradicionales con cintas y geles conductores.

No obstante, el propio documento reconoce que, para lograr una medición precisa con un dispositivo de EEG auricular, podría ser necesario personalizar el ajuste al oído de cada persona. Zonas como la concha, el canal auditivo o el trago varían mucho de un individuo a otro, lo que complica que un único diseño garantice una colocación óptima de los electrodos en todos los casos.

Para esquivar esa limitación, la patente plantea un sistema en el que los auriculares integrarían más sensores de los estrictamente necesarios, distribuidos alrededor de las puntas de los oídos. A continuación, un modelo de IA se encargaría de identificar, entre todos esos electrodos, cuáles ofrecen la mejor calidad de señal en función de métricas como la impedancia, el nivel de ruido o la calidad del contacto con la piel.

El dispositivo combinaría las señales procedentes de los distintos puntos de medida, otorgando un peso diferente a cada electrodo y generando así una onda cerebral «fusionada» optimizada. La misma patente contempla incluso gestos de tocar o presionar el auricular para iniciar o detener la captura de bioseñales, además de varias alternativas de diseño para adaptarse a oídos diferentes.

Cómo podría funcionar el sistema en unos futuros AirPods

Si se conectan las piezas del puzle —el método PARS, el ear-EEG y la patente— se dibuja un escenario probable de funcionamiento para unos auriculares con lectura de señales cerebrales. Los AirPods integrarían electrodos y sensores bioeléctricos en la carcasa interior, en las zonas que hacen contacto con el canal auditivo y la oreja externa.

Estos sensores registrarían pequeñas variaciones de potencial eléctrico asociadas a la actividad neuronal y a otras bioseñales cercanas, como la actividad muscular o el pulso de volumen sanguíneo. Un chip integrado en cada auricular se encargaría de preprocesar la señal, segmentarla por zonas y aplicar filtros básicos para reducir parte del ruido y ajustar el volumen de los efectos.

Posteriormente, los datos se enviarían de forma inalámbrica al iPhone, iPad o al propio Apple Watch, donde un modelo de IA más complejo —posiblemente basado en enfoques similares a PARS— analizaría la información. Gracias al preentrenamiento autosupervisado, el sistema podría reconocer patrones de sueño o detectar anomalías sin necesidad de que un neurólogo etiquete de antemano cada registro.

Entre los posibles usos mencionados en los documentos figuran la monitorización de fases de sueño, la detección de convulsiones o irregularidades neurológicas, y el seguimiento de otros valores de salud relacionados con el sistema nervioso y la circulación. No se descarta tampoco la aplicación a tareas de concentración, estado de alerta o prevención de fatiga.

En el día a día, el usuario no tendría que hacer mucho más que colocarse los auriculares como siempre. El sistema podría funcionar en segundo plano, iniciándose manualmente mediante un gesto (por ejemplo, la función Escucha en directo) o de forma programada —por ejemplo, durante la noche— para registrar la actividad y, después, mostrar informes resumidos sobre la calidad del descanso o posibles incidencias.

Ventajas y límites de medir el cerebro desde el oído

La elección del oído como punto de medida no es casual. A nivel práctico, un sistema de ear-EEG ofrece una visibilidad muy reducida frente a los cascos de EEG tradicionales, algo que en Europa podría facilitar su uso cotidiano tanto en entornos domésticos como en espacios públicos sin llamar la atención.

Además, los auriculares son un accesorio que muchas personas ya usan a diario, lo que abre la puerta a mediciones frecuentes y longitudinales sin necesidad de acudir a una consulta médica para cada registro. Esto podría resultar especialmente útil para quienes siguen tratamientos neurológicos o necesitan vigilar su sueño con regularidad.

Sin embargo, no todo son ventajas. Las señales más débiles y ruidosas que se recogen en el oído obligan a desplegar estrategias de procesamiento mucho más exigentes, como alternar entre los modos de control de ruido en tus AirPods. Actividades tan cotidianas como hablar, masticar o hacer ejercicio pueden introducir artefactos que distorsionan la lectura.

También influye el propio ajuste del auricular: un pequeño cambio de posición puede variar la calidad del contacto con la piel y, con ello, la precisión de la medición. Resolver estos problemas requiere combinar un diseño ergonómico muy cuidado con algoritmos de compensación del ruido y calibración continua.

Desde el punto de vista clínico, es probable que, al menos en una primera fase, este tipo de dispositivos se sitúe más cerca del seguimiento general y el seguimiento general que del diagnóstico médico formal. En Europa, cualquier paso hacia usos sanitarios regulados implicaría la supervisión de organismos como la Agencia Europea de Medicamentos (EMA) o las agencias nacionales de productos sanitarios.

Implicaciones para la privacidad y la regulación en Europa

Más allá de los retos técnicos, la posibilidad de que unos auriculares lean actividad cerebral abre un debate importante sobre privacidad, seguridad de los datos y regulación, especialmente relevante en la Unión Europea, donde el Reglamento General de Protección de Datos (RGPD) es especialmente estricto.

Los registros EEG pueden revelar información extremadamente sensible: patrones de sueño, estados de vigilia, posibles trastornos neurológicos o incluso, en el futuro, indicadores indirectos del nivel de atención. Todo ello entra de lleno en la categoría de datos de salud, que el RGPD protege de forma reforzada y para los que exige bases legales claras y consentimiento explícito.

En este contexto, una compañía como Apple tendría que asegurar el cifrado sólido de las bioseñales tanto en tránsito como en reposo, así como mecanismos transparentes para que el usuario sepa qué se está midiendo, con qué finalidad y durante cuánto tiempo se conservan los datos. El control sobre el borrado y la portabilidad de la información también resultaría clave.

Otro punto delicado es la posible frontera entre un producto de consumo y un dispositivo médico regulado. Si los futuros AirPods con sensores EEG se comercializan como herramienta para el bienestar general —por ejemplo, para medir la calidad del sueño—, seguirán un camino normativo distinto al de un equipo pensado para diagnóstico o tratamiento de enfermedades, que requeriría evaluaciones clínicas formales y certificaciones específicas.

Los reguladores europeos ya han mostrado interés por la expansión de la salud digital y los wearables. Cualquier avance en lectura de señales cerebrales desde auriculares probablemente obligará a revisar y concretar marcos normativos, para evitar que la innovación vaya por delante de las garantías para los ciudadanos.

Estado actual del desarrollo y horizonte temporal

Con todo lo publicado, la situación actual puede ninguno implica un lanzamiento inminente en tres frentes: investigaciones sobre IA aplicada al EEG, patentes que describen hardware orientado a medir bioseñales desde el oído y ejemplos de otros fabricantes que ya dan pasos en esta dirección. Ninguno de ellos implica, por ahora, un lanzamiento inminente de AirPods que lean el cerebro.

El propio estudio de Apple sobre PARS deja claro que se trata de investigación y experimentación, no de un producto concreto en fase final. El objetivo principal es comprobar si un modelo puede aprender por sí solo la estructura temporal de las ondas cerebrales a partir de datos sin etiquetar y si eso mejora el rendimiento en distintas tareas de decodificación.

Por su parte, la patente de 2023 detalla una posible implementación de electrodos y sensores en auriculares, pero patentes no siempre se traduzcen en productos. Muchas veces sirven para blindar caminos de desarrollo o cubrir ideas que quizá se retomen años más tarde, si la tecnología madura y el mercado lo ve con buenos ojos.

En paralelo, ya existen compañías, como Aware Custom Biometric Wearables, que han presentado auriculares diseñados expresamente para capturar actividad cerebral y señales vinculadas al nervio vago y a vasos sanguíneos del canal auditivo. Estos ejemplos demuestran que el sector de los wearables biométricos no es una rareza aislada, sino un campo en plena ebullición.

Dado el ritmo habitual de la industria y la necesidad de validar estas tecnologías con rigor, no parece probable que unos AirPods con lectura avanzada de EEG lleguen al mercado de forma inmediata. Los expertos estiman que, si los resultados de las investigaciones siguen siendo favorables, podría hablarse de plazos de varios años o incluso de la próxima década para ver soluciones robustas y bien integradas en productos de consumo.

ventana discreta a la actividad cerebral Apple está construyendo las piezas necesarias para que unos futuros AirPods puedan ir más allá del audio y funcionen como una ventana discreta a la actividad cerebral del usuario, combinando sensores en el oído, algoritmos de IA capaces de aprender sin anotaciones humanas y una capa de software centrada en el bienestar y la salud. El salto de los laboratorios y las patentes al día a día de la gente en España y el resto de Europa dependerá tanto de la madurez técnica como de la respuesta de los reguladores y de hasta qué punto los usuarios estén dispuestos a confiar sus datos cerebrales a un dispositivo que, hoy por hoy, solo se usa para escuchar música.

Cómo desenlazar, reiniciar o restablecer tus AirPods-7
Artículo relacionado:
Guía completa para configurar ajustes de accesibilidad en tus auriculares