Después de años de quejas, chascarrillos y promesas incumplidas, todo indica que Apple está a punto de lanzar la renovación más ambiciosa de Siri desde su estreno. No se trataría de un simple retoque del asistente de voz, sino de un cambio de base tecnológica que lo acercaría más a los chatbots de IA modernos que ya usamos a diario.
Según distintas filtraciones y el propio calendario de software de la compañía, la nueva Siri llegaría integrada en iOS 26.4 y su desembarco mundial, también en España y el resto de Europa, tendría lugar en torno al mes de marzo. La idea es que el asistente pase de ser un sistema limitado y a menudo frustrante a convertirse en una herramienta mucho más competente y flexible.
Nueva versión de Siri: novedades y posible fecha de lanzamiento
Todo apunta a que esta primavera veremos por fin esa versión de Siri que los usuarios de iPhone, iPad y Mac llevan años esperando. Apple habría apostado por una arquitectura basada en modelos de lenguaje avanzados (LLM), similares a los que emplean ChatGPT o Google Gemini, para que las conversaciones con el asistente sean más naturales y útiles.
Esta nueva generación de Siri no llegaría sola: formará parte de una actualización importante de sistema, iOS 26.4, que también afectaría a iPadOS y macOS con funciones similares adaptadas a cada dispositivo. En la práctica, el usuario notará que Siri es capaz de seguir mejor el hilo, entender peticiones encadenadas y ejecutar acciones más complejas dentro de las aplicaciones.
Los informes adelantados por medios como Bloomberg y recogidos por publicaciones tecnológicas especializadas coinciden en que Apple lleva probando internamente este nuevo Siri desde hace meses. Durante ese periodo se habría estado afinando el motor de IA, probando la integración con apps y ajustando el equilibrio entre privacidad, velocidad de respuesta y capacidad de procesamiento.
Para Europa, y en particular para España, la relevancia de esta actualización es doble: no solo supondrá un salto en usabilidad, también pondrá a prueba cómo Apple aplica sus promesas de privacidad y cumplimiento normativo (como la Ley de Mercados Digitales) en un asistente que depende de datos personales y de la nube.

¿Cuándo se lanzará la nueva Siri?
La hoja de ruta encaja bastante bien con el histórico de Apple. Todo indica que la nueva Siri llegará de la mano de iOS 26.4 durante el mes de marzo, probablemente hacia finales de mes si la compañía repite el patrón habitual de los últimos años.
En los ciclos anteriores, las actualizaciones .4 de iOS se han situado tradicionalmente en la franja de finales de marzo, con ligeras variaciones según el año. Ejemplos recientes ilustran esta tendencia:
- iOS 18.4: se lanzó un lunes 31 de marzo.
- iOS 17.4: llegó el martes 5 de marzo, adelantándose algo al patrón.
- iOS 16.4: se publicó el lunes 27 de marzo.
Si Apple mantiene un calendario similar, iOS 26.4 debería publicarse para todos a finales de marzo, tras unas semanas de beta pública. La excepción de iOS 17.4, que se adelantó para cumplir con los plazos regulatorios europeos, demuestra que la compañía ajusta las fechas en función de obligaciones legales y prioridades estratégicas.
En el momento actual, iOS 26.3 se encuentra en fase de pruebas beta, con un lanzamiento previsto para finales de enero. A partir de ahí, lo lógico sería que la primera beta de iOS 26.4 apareciera entre finales de enero y mediados de febrero. Si esa beta se adelanta, podría abrir la puerta a un lanzamiento de la versión final algo más temprano, pero las filtraciones coinciden en que marzo sigue siendo la ventana más probable.
También influirá el rendimiento real del nuevo asistente durante las pruebas. Si Apple detecta problemas de estabilidad, precisión en las respuestas o incompatibilidades con ciertas apps, no sería raro que optara por pulir el sistema unas semanas más antes de activar la nueva Siri para millones de usuarios a la vez.
¿Qué aportará la nueva Siri frente a la actual?
El cambio de fondo que prepara Apple pasa por sustituir la arquitectura tradicional de Siri por un sistema impulsado por modelos de lenguaje de gran tamaño. Esto significa que el asistente podrá interpretar el lenguaje natural con mucha más flexibilidad y ofrecer respuestas menos encorsetadas que hasta ahora.
En la práctica, el nuevo Siri se parecerá más a conversar con un chatbot de IA actual que con el asistente al que estamos acostumbrados. Podrá mantener diálogos más fluidos, entender matices y referencias al contexto (como lo que se acaba de decir en la conversación o lo que hay en la pantalla) y encadenar varias acciones dentro de una misma petición.
Entre las funciones ya anunciadas por Apple y posteriormente retrasadas, que ahora se espera que se activen con iOS 26.4, capacidades clave destacan varias capacidades clave:
- Integración profunda con aplicaciones mediante App Intents: los desarrolladores podrán enlazar sus apps, tanto de Apple como de terceros, con Siri para que el asistente ejecute acciones muy concretas sin necesidad de que el usuario toque la pantalla.
- Mejor comprensión del contexto personal: el sistema tendrá un acceso más estructurado a datos del dispositivo (mensajes, correos, calendarios, notas) para entender mejor qué se le pide y ofrecer resultados más relevantes.
- Mayor conocimiento de lo que aparece en pantalla: Siri será capaz de “ver” el contenido visible y actuar en consecuencia, algo que hasta ahora existe de forma muy limitada.
- Respuestas de conocimiento general más directas: el asistente podrá comportarse como un buscador conversacional, dando contestaciones claras sin limitarse a mostrar enlaces.
La gran promesa de Apple es que, con esta base de IA, Siri será menos propenso a los errores y malentendidos que tantos usuarios han sufrido: nombres confundidos, direcciones interpretadas de forma absurda o instrucciones de navegación imposibles. La apuesta está en un asistente que entienda mejor lo que se le dice y falle con menos frecuencia.

Procesamiento en el dispositivo, nube y papel de otros modelos de IA
Uno de los puntos más delicados de esta actualización tiene que ver con dónde se procesan las peticiones del usuario. De acuerdo con la información disponible, Apple apostaría por un modelo híbrido: parte de las interacciones se resolverán directamente en el dispositivo, mientras que las tareas más complejas recurrirán a servidores en la nube.
El procesamiento local tiene dos ventajas claras: mejora la rapidez de respuesta y reduce la exposición de datos personales fuera del iPhone, iPad o Mac. Para acciones sencillas o que solo requieran información almacenada en el dispositivo, Siri podría funcionar incluso con una conexión limitada, apoyándose en modelos de menor tamaño optimizados para ejecutarse en chips de Apple.
Para solicitudes más avanzadas —como análisis largos de texto, resúmenes complejos o búsquedas de conocimiento general extensas— entraría en juego la computación en la nube. Aquí es donde se ha especulado con el uso de tecnología de terceros, en concreto con la posibilidad de que Apple se apoye en modelos de Google o OpenAI para el procesamiento lingüístico más pesado.
La compañía, en cualquier caso, mantendría el control de la experiencia final: los modelos externos se usarían como motor de interpretación del lenguaje, mientras que la ejecución de acciones sobre el dispositivo y los datos del usuario descansaría en modelos propios de Apple y en sus sistemas internos, diseñados para cumplir sus estándares de seguridad.
Todo este enfoque resulta especialmente sensible en Europa, donde el marco regulatorio sobre privacidad de datos y servicios digitales es más estricto. Apple tendrá que demostrar que el uso de IA generativa encaja con el Reglamento General de Protección de Datos y con las nuevas obligaciones de transparencia y control para los usuarios.
Integración profunda con apps y nuevas formas de interactuar
Uno de los cambios que más podría notarse en el día a día será la nueva relación entre Siri y las aplicaciones. Hasta ahora, el asistente ha tenido una integración bastante limitada con muchas apps, lo que a menudo obligaba al usuario a abrirlas y hacer los pasos manualmente.
Con la nueva arquitectura, los llamados App Intents permitirán que Siri entienda y ejecute acciones específicas dentro de apps compatibles. En la práctica, esto se traduciría en peticiones del estilo de: editar una foto concreta en la app de Fotos, comprobar el estado de un vuelo en una aplicación de aerolínea o repetir un pedido en una tienda online, todo ello mediante una orden de voz.
Eso sí, para que esta integración funcione de verdad, los desarrolladores tendrán que adaptar sus aplicaciones a las nuevas APIs de Siri. Es previsible que las apps más populares —servicios de mensajería, compras, banca, viajes o transporte— sean de las primeras en incorporar estas capacidades, especialmente en mercados grandes como el europeo.
Otro aspecto interesante es la llamada conciencia de pantalla. Siri será capaz de tener en cuenta lo que el usuario está viendo en ese momento para actuar directamente sobre ese contenido. Por ejemplo, podría añadir a la agenda una dirección que aparece en un correo, o resumir un artículo que se esté leyendo en el navegador sin necesidad de copiar y pegar nada.
En paralelo, la función de contexto personal mejorado dará al asistente una visión más coherente de la información del usuario: contactos frecuentes, conversaciones recientes, citas próximas o documentos relevantes. Siempre dentro de los límites de privacidad establecidos, esto debería permitir que Siri responda mejor cuando se le piden cosas como “búscame el mensaje en el que me mandaron el número de cuenta” o “recuérdame la hora del vuelo de mañana”.

Impacto en otros dispositivos: HomePod, Apple Watch y más
La mejora de Siri no se quedará en el iPhone. La idea de Apple es que todo su ecosistema de dispositivos se beneficie de este nuevo asistente, empezando por los altavoces inteligentes y los wearables, donde la voz es la forma de interacción más natural.
Uno de los proyectos que podría reactivarse gracias a esta actualización es un dispositivo para el hogar con pantalla integrada, una especie de híbrido entre HomePod y iPad que la compañía habría pospuesto precisamente porque Siri no estaba a la altura de lo que requería un producto así.
Con un asistente más capaz —y mejor preparado para entender el contexto del hogar, los perfiles de los usuarios y la información que se muestra en la pantalla—, tendría más sentido lanzar un equipo pensado para usarse como centro de control doméstico, videollamadas, reproducción multimedia y consultas rápidas mediante voz.
En el caso del Apple Watch, la llegada del nuevo Siri podría suponer un salto importante, ya que se trata de un dispositivo ideal para interacciones cortas y rápidas. Pedir resúmenes de mensajes, registrar entrenamientos con más precisión o lanzar automatizaciones complejas sin sacar el iPhone del bolsillo son algunos de los escenarios que se beneficiarían de un asistente más fino.

La gran incógnita ahora es si Apple será capaz de cumplir las expectativas tras años de promesas alrededor de la inteligencia artificial. Con un lanzamiento previsto de la nueva Siri para marzo junto a iOS 26.4, los próximos meses serán decisivos para comprobar si el asistente deja atrás su historial de errores y se convierte por fin en una herramienta realmente útil en el día a día de los usuarios en España, Europa y el resto del mundo.