Apple ultima un movimiento importante en el terreno de la IA aplicada a wearables, y el centro de toda esta estrategia serán unas gafas inteligentes con inteligencia artificial diseñadas para trabajar codo con codo con el iPhone. Lejos de repetir la fórmula de las Vision Pro, la compañía prepara un dispositivo mucho más discreto y pensado para el día a día.
Según múltiples informes coincidentes, entre ellos los del periodista Mark Gurman en Bloomberg, estas gafas no llegarán solas. Formarán parte de un pequeño ecosistema de tres dispositivos portátiles con cámara e IA: las propias gafas, un colgante o pin inteligente y unos AirPods renovados con sensores visuales. La idea es que el teléfono siga siendo el cerebro, mientras estos accesorios ponen los ojos y los oídos.
Gafas inteligentes con IA de Apple: cómo serán y qué podrán hacer

Las futuras gafas inteligentes de Apple se plantean como un producto muy distinto a las Apple Vision Pro. En lugar de apostar por una realidad mixta con pantallas en las lentes, los prototipos descritos por las filtraciones apuestan por un formato más cercano a unas gafas de uso cotidiano, pero cargadas de sensores, altavoces y micrófonos.
Los informes apuntan a que integrarán dos cámaras diferenciadas: una principal de alta resolución para hacer fotos y vídeos y una segunda dedicada a la visión por computador y al análisis del entorno. Este segundo sensor serviría para que Siri y Apple Intelligence “entiendan” qué está viendo el usuario en tiempo real.
Ese contexto visual permitirá funciones como identificar objetos, leer carteles o interpretar documentos sin necesidad de enfocar la cámara del iPhone. También se habla de la posibilidad de añadir eventos al calendario al mirar un póster, o de crear recordatorios cuando el usuario esté frente a la estantería adecuada en un supermercado, algo que encaja con el enfoque práctico que Apple suele buscar para sus productos.
Otro punto clave será la navegación. Gracias a la IA y a las cámaras, Siri podría guiar al usuario usando referencias reales: en lugar de limitarse a indicar “gira a la derecha en 100 metros”, podría decir cosas como “pasa el edificio rojo y gira en la siguiente esquina”. Este tipo de indicaciones resultan especialmente útiles en ciudades europeas con calles estrechas o trazados complejos, como muchos cascos históricos en España.
En cuanto a la interacción diaria, las gafas permitirán realizar llamadas, escuchar música, invocar a Siri y ejecutar acciones según el entorno. No habrá pantalla, así que la interfaz se apoyará en el audio, las notificaciones de voz y, previsiblemente, algún tipo de luces o indicadores discretos en la montura.
Diseño, materiales y producción: Apple quiere competir con Ray‑Ban Meta
Uno de los aspectos en los que Apple parece poner más empeño es en el diseño de las monturas y la calidad de construcción. A diferencia de Meta, que se ha aliado con EssilorLuxottica para sus Ray‑Ban Meta, en Cupertino han optado por desarrollar las gafas de forma interna, controlando tanto la parte tecnológica como el estilo.
En las primeras fases del proyecto se habría experimentado con monturas comerciales modificadas, añadiendo cámaras y electrónica a gafas ya existentes de varias marcas. Sin embargo, el plan actual pasa por ofrecer un producto propio, con varios tamaños y colores, orientado a que se sienta como una gafa convencional y no como un prototipo voluminoso.
Los prototipos iniciales utilizaban un cable conectado a una batería externa y al iPhone, un enfoque similar al de los primeros desarrollos de Vision Pro. Con el tiempo, Apple habría avanzado hacia versiones en las que la electrónica y la batería se integran directamente en la montura, usando materiales ligeros y elementos acrílicos pensados para dar una sensación premium pero cómoda para uso prolongado.
En el plano comercial, las gafas se posicionarían como un producto de gama alta, aunque se insiste en que Apple necesitará un precio competitivo si quiere plantar cara seriamente a las Ray‑Ban Meta, especialmente en mercados sensibles al coste como el español. En paralelo, ya se mencionan planes para un segundo modelo con pantalla integrada y capacidades de realidad aumentada más avanzadas, aunque ese dispositivo estaría todavía a años vista.
Internamente, las gafas se conocen con el nombre en clave N50, y las filtraciones señalan que Apple quiere iniciar la producción alrededor de diciembre con el objetivo de lanzarlas al público en 2027. De cumplirse estos plazos, la compañía llegaría cuando el concepto de gafas inteligentes ya esté más asentado, un movimiento coherente con su estrategia de evitar las primeras versiones de una categoría y apostar por versiones más pulidas.
Siri, Apple Intelligence y Gemini: la IA que dará sentido a las gafas
Más allá del hardware, el verdadero motor de este proyecto será una Siri completamente renovada, apoyada en Apple Intelligence y en modelos de IA desarrollados junto a Google, concretamente una versión personalizada de Gemini. La compañía está preparando una nueva interfaz de tipo chatbot para iOS, prevista para iOS 27, que servirá de base para que estos dispositivos portátiles cobren sentido.
El objetivo es que la asistente deje de limitarse a comandos de voz sencillos y sea capaz de entender el contexto visual, el audio ambiente y la ubicación para ofrecer respuestas y acciones mucho más útiles. Las gafas, con sus cámaras duales, serán la pieza más avanzada de este puzzle, pero el colgante y los AirPods con cámara aportarán también información clave al sistema.
En el caso de las gafas, la visión por computador permitirá a Siri reconocer platos en un restaurante, identificar edificios emblemáticos durante un paseo por una ciudad europea o leer un texto impreso y convertirlo en datos editables. Para usuarios en España, por ejemplo, sería posible enfocar el menú de un bar o el cartel de un concierto y obtener traducciones, detalles o recordatorios al instante.
Apple ya tiene cierta experiencia con funciones de IA visual en el iPhone, como Visual Intelligence, que analiza imágenes para reconocer objetos, mascotas o texto. La gran diferencia es que, con las gafas, esa capacidad dejaría de estar limitada a las fotos almacenadas en el móvil y pasaría a funcionar en tiempo real sobre el entorno.
Todo este despliegue llega en un momento en el que Apple intenta recortar distancia en la carrera de la IA. La nueva versión de Siri ha sufrido retrasos internos y problemas de desarrollo, pero Tim Cook ha insistido en distintas reuniones con empleados en que la empresa está “extremadamente ilusionada” con las nuevas categorías de producto impulsadas por inteligencia artificial, donde las gafas serán uno de los estandartes.
Un colgante con IA: los “ojos y oídos” del iPhone
Junto a las gafas, Apple prepara un dispositivo más pequeño y discreto: un colgante o pin con cámara e IA, de un tamaño cercano al de un AirTag. Este accesorio podría llevarse colgado al cuello o enganchado a la ropa mediante un clip, y está pensado para funcionar como una cámara y micrófono siempre activos conectados al iPhone.
A nivel conceptual, recuerda al fallido Humane AI Pin, aunque con una filosofía muy distinta. En lugar de intentar sustituir al smartphone, la idea de Apple es que este pin sea un complemento que delega el procesamiento pesado en el iPhone. Internamente, algunos empleados lo describen como los “ojos y oídos” del teléfono, encargados de capturar el contexto mientras el móvil permanece en el bolsillo o el bolso.
El dispositivo prescindirá de pantallas, proyectores o sistemas de visualización complejos, precisamente para evitar los problemas de batería, calor y usabilidad que han lastrado a proyectos similares. Contará con una cámara de baja resolución enfocada a aportar información a los modelos de IA, no a hacer fotos de alta calidad, y un micrófono para comunicarse con Siri.
Uno de los debates internos que sigue abierto tiene que ver con la inclusión de un altavoz integrado. Si finalmente se incorpora, el usuario podría mantener conversaciones de ida y vuelta con Siri sin necesidad de sacar el iPhone ni ponerse los AirPods, algo útil en situaciones cotidianas como ir cargado con bolsas o caminar por la calle.
El colgante se encuentra aún en una fase más temprana de desarrollo que las gafas, y las fuentes señalan que su lanzamiento podría adelantarse, llegando incluso antes que N50 si Apple decide seguir adelante. En cualquier caso, se trata de un proyecto que todavía podría sufrir cambios profundos o cancelarse, como ya ocurrió con otros experimentos de hardware de la compañía.
AirPods con cámara e IA: sonido, contexto y control por gestos
El tercer pilar de la estrategia de Apple pasa por unos AirPods con cámaras de baja resolución. Este modelo, que distintos analistas sitúan como el más cercano a llegar al mercado, iría más allá de las mejoras habituales en sonido o cancelación de ruido e incorporaría sensores visuales para entender mejor el entorno del usuario.
Las fuentes coinciden en que estas cámaras no estarían pensadas para grabar recuerdos familiares o vídeos al estilo tradicional. Su función sería alimentar de datos a la IA y a Siri, permitiendo cosas como mejorar el audio adaptativo en función de la escena, detectar gestos con la cabeza o las manos o entender mejor dónde se encuentra el usuario.
Una de las aplicaciones más claras sería el control por gestos. Si los auriculares son capaces de “ver” la posición del usuario y ciertos movimientos, podrían habilitar nuevas formas de interacción sin tocar el móvil, algo interesante para deportistas, conductores o personas que suelen ir con las manos ocupadas.
También se barajan funciones vinculadas a la traducción en tiempo real y a la asistencia contextual: por ejemplo, preguntar por el parque en el que se está corriendo o por ese edificio llamativo que se acaba de dejar atrás mientras se camina por una ciudad desconocida. Aquí, de nuevo, el mercado europeo encaja bien, al combinar turismo intenso, variedad de idiomas y gran densidad urbana.
En el terreno comercial, distintos informes apuntan a que estos AirPods con cámara podrían llegar antes que las gafas, incluso alrededor de 2026. Gurman lleva tiempo señalando que Apple trabaja en este tipo de auriculares desde hace años, y el reciente abaratamiento de algunos modelos Pro se interpreta como un posible movimiento para hacer hueco en la gama a una versión más avanzada.
Privacidad, competencia y el impacto en España y Europa
El despliegue de dispositivos con cámaras siempre atentas abre inevitablemente el debate sobre privacidad. Tanto las gafas como el colgante y los AirPods con cámara deberán dejar claro cuándo están capturando información, qué se procesa en el dispositivo, qué viaja a la nube y cómo se gestiona todo ese flujo de datos.
En Europa, y especialmente en países como España, el marco regulatorio marcado por el RGPD obligará a Apple a cuidar al milímetro aspectos como el consentimiento, el almacenamiento de imágenes o la anonimización de la información. El simple hecho de llevar cámaras en gafas o en un pin ya ha generado polémica en el pasado, por lo que será clave que la compañía explique bien sus mecanismos de protección.
En paralelo, Apple llega a un mercado donde Meta, Snap y otros competidores ya se han movido. Las Ray‑Ban Meta han demostrado que hay interés real en unas gafas que responden a preguntas sobre lo que ves, y ese éxito ha espoleado a otros gigantes tecnológicos a acelerar sus propios proyectos de wearables con IA.
La estrategia de Apple pasa por no ser la primera, sino intentar ser la que mejor pule el concepto. Es un patrón que ya se ha visto en otras categorías: espera a que el público entienda el producto, identifica los fallos de los pioneros y lanza una versión más refinada cuando hay una base de usuarios receptiva.
Para el usuario europeo medio, la consecuencia práctica podría ser un salto gradual hacia una computación más ambiental y menos centrada en la pantalla. En lugar de mirar constantemente el móvil, muchos gestos cotidianos —consultar una dirección, traducir un cartel, apuntar una cita o pedir información sobre un plato— podrían pasar a resolverse hablando con Siri mientras las gafas o los auriculares interpretan el entorno.
Todo apunta a que las gafas inteligentes con IA de Apple serán la punta de lanza de una nueva familia de productos diseñada para extender el alcance del iPhone más allá del bolsillo, apoyándose en cámaras, sensores y una Siri mucho más capaz. Si los plazos se cumplen, primero veremos llegar AirPods con nuevos trucos de IA y, algo después, un colgante y unas gafas que prometen cambiar la forma en la que interactuamos con la tecnología en la calle, en el transporte público o en nuestra ciudad. Queda por ver cómo encajarán precio, privacidad y utilidad real, pero el tablero ya está preparado para que, a partir de 2027, mirar alrededor y hacer una pregunta a un asistente sea tan habitual como hoy sacar el móvil del bolsillo.
