iOS 26.4: Siri se vuelve más lista y la salud gana peso en el iPhone

  • iOS 26.4 incorpora un nuevo núcleo de IA para Siri basado en modelos de lenguaje, con más contexto y comprensión semántica.
  • El sistema refuerza la privacidad y el tratamiento local de datos en Europa, usando la nube solo cuando es imprescindible.
  • La app Salud se renueva con más foco en nutrición, contenidos guiados y un asistente de bienestar con IA.
  • La actualización incluirá nuevos emojis Unicode 17.0 y se espera para primavera, entre marzo y abril.

iOS 26.4 novedades de Siri IA y salud en el iPhone

Durante años, Siri ha sido una presencia constante en el iPhone, pero su papel se había quedado en algo bastante rutinario: útil para tareas simples, poco determinante cuando el usuario necesitaba algo más complejo. Con iOS 26.4, Apple cambia el enfoque y empieza a recolocar a su asistente, no tanto con funciones llamativas aisladas, sino alterando de raíz cómo entiende lo que le pedimos.

La compañía no lo vende como un Siri completamente nuevo, pero sí como un asistente distinto en comportamiento, ambición y capacidad de comprensión. Esta actualización de primavera se perfila como una de las más relevantes de los últimos tiempos en materia de inteligencia artificial dentro de iOS, con un impacto especial para quienes usan el iPhone en España y en el resto de Europa, donde el sistema comienza a reaccionar de forma más “inteligente” y menos mecánica.

Un nuevo cerebro para Siri en iOS 26.4

Hasta ahora, el asistente de Apple funcionaba como una cadena de módulos que respondían a órdenes muy concretas: convertía la voz en texto, buscaba coincidencias con una lista de intenciones predefinidas y lanzaba una acción en el sistema. Era suficiente para poner una alarma, añadir un recordatorio o llamar a un contacto, pero se quedaba corto cuando la petición requería varios pasos seguidos o un contexto más rico.

Con la llegada de iOS 26.4, el enfoque cambia: Siri pasa a estar construido alrededor de modelos de lenguaje de gran tamaño (LLM), una tecnología similar a la que impulsa servicios como ChatGPT, Claude o Gemini. El objetivo no es convertir el iPhone en un chatbot de conversación infinita, sino dotar al asistente de una comprensión más profunda del lenguaje natural, capaz de captar matices, referencias implícitas y relaciones entre diferentes elementos de la petición.

En esta nueva etapa, el sistema deja de fiarlo todo al reconocimiento de voz y a la búsqueda de palabras clave exactas. El asistente comienza a razonar primero sobre la intención de la persona y, a partir de esa interpretación, decide qué acciones debe encadenar dentro del sistema. Apple define internamente este diseño como un enfoque “LLM-first”: el modelo de lenguaje es el eje central y las APIs de iOS se convierten en herramientas que el modelo va llamando según lo que se quiera lograr.

Según la información disponible, Apple se apoya en sus Foundation Models v10 de nueva generación, diseñados específicamente para integrarse a bajo nivel en el iPhone. Gracias a estos modelos, el asistente puede tratar correos electrónicos, mensajes, documentos y páginas web como contenido estructurado con secciones y datos, y no como un simple bloque de texto plano, algo que limita claramente a la Siri de iOS 26.3.

Además, el fabricante complementa esta base con una integración selectiva de la tecnología de Google Gemini para determinadas tareas de razonamiento más avanzado. La idea es que el sistema pueda analizar mejor el contexto, sin depender tanto de reglas rígidas o de plantillas de comandos cerradas, respetando al mismo tiempo las restricciones de privacidad que se exigen en la Unión Europea.

Siri gana contexto: datos personales, pantalla y apps conectadas

Para el usuario medio en Europa, el salto no se verá tanto en un modo de charla infinita con el móvil, sino en cómo Siri aprovecha el contexto personal y lo que hay en la pantalla para ayudar de forma más útil en el uso diario del iPhone. Aquí confluyen tres pilares: datos del usuario, contenido visible y encadenado de acciones entre aplicaciones.

En primer lugar, el asistente en iOS 26.4 puede apoyarse con más soltura en la información almacenada en el propio dispositivo —correos, mensajes, archivos, fotos— cuando se le pide algo concreto. Solicitudes como “búscame el documento que me envió mi jefa el jueves” o “enséñame el recibo que escaneé hace un par de semanas” pasan a depender menos de fórmulas exactas y a resolverse con mayor precisión.

En segundo lugar, Siri se vuelve más consciente de lo que el usuario tiene abierto en la pantalla en cada momento. Eso significa que puede interpretar un mensaje, una dirección, una imagen o una página web y actuar directamente sobre ese contenido: añadir un dato a un contacto, guardar una dirección en Mapas, reenviar la foto que se está viendo o rescatar información relevante sin necesidad de copiar y pegar entre apps.

El tercer elemento clave es una integración más profunda con las aplicaciones y servicios del sistema. iOS 26.4 permite al asistente encadenar operaciones que antes el usuario hacía paso a paso: editar una imagen y compartirla inmediatamente en una conversación, mover ficheros entre apps de productividad, preparar un correo con información tomada de un documento o agrupar varias acciones dentro de un mismo flujo.

Con esta combinación, Siri empieza a comportarse menos como un asistente “reactivo” que solo responde a órdenes aisladas y más como una capa de inteligencia que conecta distintas piezas del sistema operativo. Aunque todavía no se habilite un diálogo completamente continuo o un modo conversacional avanzado —algo que Apple probablemente reserve para futuras versiones—, sí se nota un uso más coherente del contexto en cada interacción.

Qué cambia frente a iOS 26.3

En la versión anterior, iOS 26.3, el asistente se basaba sobre todo en modelos de intención con listas de frases y comandos cerrados. El sistema identificaba qué orden se parecía más a lo que el usuario decía y lanzaba la acción asociada. Funcionaba, pero resultaba rígido y fácil de “romper” si uno se salía de la frase esperada.

Con iOS 26.4, la prioridad pasa a ser entender el propósito de lo que se pide, no solo la etiqueta técnica de la acción. El sistema trata de descifrar qué quiere lograr la persona al hablar con Siri, aunque la frase no coincida con un comando exacto, y a partir de ahí decide qué aplicaciones y funciones deben intervenir.

Este cambio se traduce en varios comportamientos concretos. Por ejemplo, el asistente es capaz de mantener mejor el contexto entre varias peticiones relacionadas, en lugar de interpretar cada orden como algo totalmente aislado. Si se le pide que lea un correo y, a continuación, se dice “respóndele que me parece bien”, el sistema entiende a qué mensaje nos referimos sin tener que repetir todos los detalles.

También mejora la capacidad de trabajar con documentos, correos y páginas web como estructuras con campos y relaciones internas. Esto facilita encontrar datos muy concretos —una fecha, un nombre, una cantidad— dentro de un contenido largo. En iOS 26.3, estas operaciones dependían de reglas bastante más rígidas y, en la práctica, los resultados podían ser irregulares.

En conjunto, estos ajustes van componiendo a Siri como una especie de orquestador de acciones dentro de iOS 26.4, en lugar de un simple lanzador de comandos. No se trata de una revolución visible en la interfaz, pero sí de una diferencia notable para quienes usan mucho la voz o las sugerencias inteligentes del iPhone.

Por qué Apple ha dado este giro ahora

El movimiento que ahora llega con iOS 26.4 no aparece de la nada. En encuentros internos, responsables como Craig Federighi han admitido que la compañía intentó durante un tiempo combinar la arquitectura clásica de Siri con un sistema moderno de modelos de lenguaje, y que esa mezcla no terminaba de funcionar ni a nivel técnico ni de mantenimiento.

El diseño anterior trataba de superponer un modelo más avanzado encima de una base construida hace años, con múltiples capas y servicios independientes. Esa aproximación chocó con límites claros, y llevó a la decisión de reconstruir el asistente alrededor de un único modelo central, en vez de mantener dos sistemas intentando entender al usuario en paralelo. iOS 26.4 es la primera versión en la que ese rediseño profundo se hace notar de forma visible.

Además, este cambio llega tras un periodo en el que usuarios de distintos mercados, incluidos europeos, reclamaron funciones de IA anunciadas con antelación que se retrasaron o se recortaron sobre la marcha. Algunas de esas decisiones dieron pie a quejas formales y a un escrutinio más intenso sobre cómo Apple comunica las novedades de sus sistemas.

En paralelo, la compañía ha cerrado un acuerdo plurianual con Google para utilizar partes de la tecnología Gemini en tareas puntuales de razonamiento, mientras continúa desarrollando y entrenando sus propios modelos. Apple insiste en que la prioridad sigue siendo la privacidad: buena parte del procesamiento se hace en el propio dispositivo y, cuando se recurre a la nube, se hace a través de Private Cloud Compute, con datos anonimizados y protegidos para ajustarse a la normativa europea.

Esta combinación de presión competitiva, expectativas de los usuarios y necesidad de modernizar la infraestructura de Siri ha empujado a la empresa a acelerar la transición hacia un asistente más flexible e inteligente en iOS 26.4. Aun así, Apple prefiere que el salto más radical en capacidades conversacionales se produzca de forma gradual, conforme se vayan afinando los modelos y se validen sus efectos en términos de privacidad y fiabilidad.

IA en el día a día del iPhone, más allá de Siri

Aunque el asistente de voz se lleve casi todos los titulares, iOS 26.4 también da pasos para integrar la inteligencia artificial en otras partes del sistema. La idea es que la IA no se quede en una función vistosa en una esquina del sistema, sino que aparezca de forma más natural en las rutinas diarias del usuario.

En el ámbito de la comunicación, el nuevo enfoque basado en LLM permite que el iPhone interprete mejor el contenido de correos, mensajes y documentos. Esto abre la puerta a sugerencias contextuales más útiles: desde proponer respuestas más elaboradas hasta ofrecer atajos para archivar, reenviar o resumir textos largos, siempre dentro de los límites que el usuario marque en sus ajustes de privacidad.

El propio sistema operativo se beneficia de esta inteligencia distribuida. iOS 26.4 apunta a funcionar como una capa de asistencia que recorre todo el sistema, sugiriendo automatizaciones, ayudando a completar procesos que implican varias apps y detectando patrones de uso para ofrecer accesos directos a las funciones más frecuentes para cada persona.

Este planteamiento tiene especial relevancia en la Unión Europea, donde la regulación sobre protección de datos y uso de perfiles es especialmente estricta. Apple intenta presentarse como un actor que encaja la IA en un marco legal exigente, priorizando el procesamiento local en el dispositivo y enviando solo la información imprescindible a sus servidores, con medidas de protección adicionales.

En la práctica, el usuario en España o en cualquier país europeo notará que muchas tareas pequeñas —abrir el archivo adecuado, completar un formulario recurrente, preparar un mensaje estándar— se vuelven algo más ágiles sin que cambie la interfaz de forma radical. Buena parte del valor de la actualización se oculta bajo la superficie, pero se percibe en la suma de pequeños gestos cotidianos.

Nuevos emojis y otros cambios visibles en iOS 26.4

Más allá de la inteligencia artificial, la nueva versión también traerá una tanda de emojis adicionales basados en el estándar Unicode 17.0. No es la novedad más técnica, pero sí una de las más visibles en el día a día, sobre todo para quienes pasan buena parte de su tiempo en apps de mensajería o redes sociales.

Estos nuevos iconos suelen incluir nuevas expresiones faciales, personajes, objetos y símbolos variados, siguiendo la línea de actualizaciones anuales a las que Apple ya nos tiene habituados. Como de costumbre, los emojis llegan primero al iPhone y, con el tiempo, se extienden al resto de dispositivos del ecosistema mediante actualizaciones de sistema.

Aunque no cambian la forma de usar el móvil, estos pequeños añadidos permiten hacer la comunicación escrita un poco más expresiva y matizada. Además, sirven para recordar que las actualizaciones de mitad de ciclo como iOS 26.4 no se limitan a ajustes internos: también incorporan detalles visibles que el usuario detecta desde el primer día.

En paralelo, se esperan correcciones de errores, mejoras de estabilidad y ligeros ajustes en aplicaciones del sistema que no siempre aparecen destacados en las notas oficiales, pero que ayudan a pulir la experiencia general, especialmente en modelos de iPhone con algunos años a sus espaldas.

Este tipo de cambios más discretos son relevantes para quienes utilizan el iPhone como herramienta principal de trabajo o estudio, ya que pueden mejorar el rendimiento y la fiabilidad del dispositivo sin necesidad de cambiar de móvil o realizar grandes modificaciones en la forma de uso.

Salud y bienestar: la app Salud gana protagonismo

Uno de los frentes menos ruidosos, pero más importantes, de iOS 26.4 es la renovación de la aplicación Salud y de las herramientas ligadas al bienestar. Apple lleva años colocando al iPhone y al Apple Watch en el centro del seguimiento de la salud personal, y esta actualización profundiza en esa estrategia con nuevas funciones.

Por un lado, se espera una interfaz actualizada en la app de Salud, orientada a mostrar de forma más clara los datos clave y a simplificar el registro de información. La idea es reducir la fricción al consultar gráficos, tendencias y métricas, de modo que más usuarios se animen a revisar y actualizar sus datos con frecuencia.

Entre las novedades previstas destaca el seguimiento ampliado de nutrición y calorías, que complementa los datos de actividad física ya habituales en el iPhone y el Apple Watch. Este enfoque permite tener una visión más global del bienestar diario, combinando ejercicio, alimentación y otros indicadores como el sueño o la frecuencia cardiaca.

La actualización también pondrá a disposición del usuario nuevo contenido de vídeo guiado sobre sueño, postura, alimentación y salud mental. Estos recursos, integrados de forma nativa en el ecosistema de Apple, pretenden que el dispositivo no solo registre datos, sino que ofrezca orientación práctica, pequeñas rutinas y material educativo para ir mejorando hábitos poco a poco.

Por último, iOS 26.4 introduce un asistente de salud apoyado en IA, pensado para sugerir recomendaciones personalizadas de ejercicio, dieta o postura a partir de los datos recopilados. No está planteado para sustituir el consejo médico profesional, pero sí para servir como acompañante básico, recordatorio constante y guía de referencia en el bolsillo del usuario.

Privacidad y regulación en Europa: cómo se procesan los datos

El refuerzo de la inteligencia artificial en iOS 26.4 llega en un contexto en el que la regulación europea en materia de privacidad y uso de datos es especialmente exigente. Esto obliga a Apple a ajustar no solo la tecnología, sino también la forma de desplegarla en distintos mercados.

La compañía insiste en que gran parte del procesamiento que sustenta las nuevas funciones de IA, incluyendo las capacidades ampliadas de Siri y del asistente de salud, se realiza directamente en el dispositivo. El uso de los modelos locales permite responder muchas solicitudes sin enviar información personal a servidores externos, reduciendo así la superficie de riesgo.

Cuando es necesario recurrir a la nube para tareas más complejas, el sistema emplea Private Cloud Compute y técnicas de anonimización para procesar las peticiones. En teoría, esto limita la posibilidad de vincular esos datos con una persona concreta, algo especialmente relevante a la luz de las normativas europeas.

Al mismo tiempo, la evolución de estas funciones está bajo la lupa de autoridades y asociaciones que vigilan el uso de datos personales y el impacto de la IA sobre los derechos de los ciudadanos. Apple se ve obligada a modular el despliegue de algunas funciones y a adaptar documentación y controles de privacidad para cada región.

Para el usuario final en España o en otros países de la UE, todo esto se traduce en un ecosistema donde la inteligencia artificial y la protección de datos tienen que convivir. La promesa de Apple es que el iPhone gane en inteligencia sin convertir los datos personales en moneda de cambio, aunque el debate sobre hasta dónde llega esa protección seguirá muy presente en los próximos años.

Cuándo se espera iOS 26.4 y qué pasará con las betas

En cuanto al calendario, todo apunta a que iOS 26.4 verá la luz entre los meses de marzo y abril, siguiendo el patrón habitual de lanzamientos de primavera de Apple. No es una versión tan mediática como la gran actualización de otoño, pero sí una pieza importante en la evolución anual del sistema.

Antes de la versión final, se prevé la llegada de compilaciones beta para desarrolladores y, posiblemente, de una beta pública. Estas versiones de prueba sirven para que Apple detecte errores, afine el rendimiento y ajuste el comportamiento de las nuevas funciones basadas en IA a partir de los comentarios de quienes se animan a probarlas antes de tiempo.

Las actualizaciones de mitad de ciclo, como esta, suelen centrarse más en refinar lo introducido previamente, ampliar capacidades y estabilizar el ecosistema que en rediseñar por completo la experiencia visual. En el caso de iOS 26.4, las grandes protagonistas serán las mejoras internas que dan soporte al nuevo Siri y a las funciones de salud, más que cambios llamativos en iconos o menús.

Para los usuarios que dependen de la máxima estabilidad —por ejemplo, en entornos de trabajo o educativos— lo más prudente será esperar a la versión pública definitiva, una vez que las betas hayan servido para pulir la mayoría de problemas. Quienes prefieran experimentar antes con las novedades de IA podrán apuntarse a los programas de prueba, asumiendo el riesgo de fallos, cuelgues puntuales o cambios de última hora.

Con este panorama, iOS 26.4 se perfila como una actualización más estratégica que espectacular: no transforma la apariencia general del iPhone, pero sí modifica la forma en la que el sistema entiende al usuario, refuerza el peso de la salud digital y añade pequeñas mejoras visibles, como los nuevos emojis. Para quienes usan a diario su iPhone en España y en Europa, el valor de esta versión estará en que muchas de las tareas que ya realizaban a diario se vuelvan algo más fluidas, menos mecánicas y, sobre todo, más adaptadas a su propio contexto, aunque buena parte del cambio ocurra en un segundo plano que apenas se ve, pero se nota con el paso de los días.

Las novedades de iOS 26-0
Artículo relacionado:
Todas las novedades de iOS 26: el mayor rediseño y salto de inteligencia para el iPhone