La gran transformación de Siri en iOS 27: de asistente de voz a plataforma de IA abierta

  • iOS 27 convertirá Siri en un chatbot avanzado con app propia e historial de conversaciones
  • El asistente se abrirá a extensiones de IA y chatbots de terceros como ChatGPT, Gemini o Claude
  • Apple usará Apple Intelligence y modelos destilados de Gemini para ofrecer IA más privada e integrada
  • Las funciones más avanzadas de Siri llegarán primero a los dispositivos Apple más recientes en Europa y el resto del mundo

Siri en iOS 27

La próxima gran versión del sistema operativo del iPhone no solo traerá mejoras de rendimiento y estabilidad: todo apunta a que iOS 27 será recordado por la mayor transformación de Siri desde su lanzamiento. Apple está preparando un cambio de enfoque profundo para su asistente, que dejará de ser una simple capa de voz para convertirse en una auténtica plataforma de inteligencia artificial.

Según filtraciones y adelantos publicados por fuentes como Mark Gurman (Bloomberg), la compañía quiere que Siri se parezca mucho más a los chatbots modernos tipo ChatGPT o Gemini, pero con una integración total en el ecosistema Apple, nuevas opciones de personalización y una arquitectura abierta a múltiples proveedores de IA.

De asistente reactivo a chatbot permanente

Chatbot de Siri en iOS 27

Uno de los cambios más visibles será que Siri dejará de funcionar solo como una superposición momentánea en pantalla cuando invocamos el comando de voz. Con iOS 27, Apple prepara una aplicación independiente de Siri, con aspecto de chat, muy parecida a las apps de los grandes modelos de IA que ya conocemos.

En esa nueva app, los usuarios verán un listado de conversaciones anteriores, podrán reabrirlas cuando quieran, fijar las más importantes o buscar en el historial para recuperar respuestas antiguas. La experiencia se acercará más al uso de un chat continuo que a la interacción actual basada en preguntas sueltas.

Además, la interacción ya no se limitará a la voz. Siri aceptará tanto dictado como texto escrito, permitiendo alternar entre hablarle y escribirle según el contexto. Esto será especialmente útil en entornos donde no resulta cómodo hablar en alto, como el transporte público, la oficina o una biblioteca.

Otro punto clave es la memoria. En lugar de olvidar gran parte del contexto al cerrar una sesión, el nuevo Siri podrá manejar un contexto persistente mucho más largo, recordando preferencias, tareas en curso o hilos de conversación que se retoman días después, algo muy en la línea de las últimas generaciones de chatbots.

Todo ello busca que el asistente deje de ser un recurso puntual y se convierta en un compañero de IA al que recurrir de forma continua, no solo para poner alarmas o preguntar por el tiempo, sino para trabajar, estudiar o planificar actividades del día a día.

Una Siri más útil en el día a día: multitarea compleja y redacción de contenido

Nueva experiencia de Siri en iOS 27

Las filtraciones apuntan a que con iOS 27 Siri dará un salto importante en su capacidad para gestionar solicitudes complejas. Hasta ahora, el asistente destaca poco cuando se le piden varias cosas a la vez; tiende a fragmentar las órdenes y obliga al usuario a repetir comandos.

Con la nueva versión, Apple está probando un sistema en el que el usuario podrá encadenar varias acciones en una sola petición. Por ejemplo, será posible decir algo como: “Siri, mira el tiempo para el sábado en Valencia, añade una cita en el calendario a las 10 de la mañana y manda un mensaje a mi madre diciéndole que quedamos para desayunar si no llueve”. El asistente analizará esa frase, dividirá las acciones necesarias y las ejecutará sin que el usuario tenga que repetir cada paso.

Esta misma lógica de peticiones encadenadas se aplicará también a tareas de redacción y productividad. Siri podrá ayudar a escribir correos electrónicos, mensajes, informes breves o incluso textos más largos, con la opción de retocar el tono, resumir, ampliar información o corregir errores gramaticales, directamente desde la propia interfaz del sistema.

En el ámbito de la planificación, las sugerencias iniciales de la nueva app orientarán al usuario sobre lo que puede pedir. Así, al entrar en la aplicación, podrán aparecer ejemplos como “ayúdame a organizar un viaje de cuatro días a Lisboa”, “propón una rutina de estudio para el examen de oposiciones” o “prepara una lista de la compra saludable para dos personas”. Siri no se limitará a responder con un par de frases, sino que podrá ofrecer itinerarios, listas, recordatorios y ajustes posteriores según las respuestas del usuario.

La combinación de contexto persistente, redacción avanzada y multitarea permitirá que Siri pase de ser un asistente de voz bastante limitado a una herramienta de trabajo real, capaz de ahorrar tiempo en la organización diaria y en la creación de contenidos.

Integración profunda en el ecosistema Apple sin perder la activación clásica

A pesar de la llegada de la app independiente, Apple no renunciará a la invocación tradicional de Siri mediante voz o botón físico. En iOS 27 seguirá siendo posible activar el asistente diciendo la palabra clave o manteniendo pulsado el botón lateral, como hasta ahora.

La diferencia es que, una vez activo, Siri tendrá mucha más conciencia de lo que está ocurriendo en el dispositivo. Podrá entender qué aplicación está abierta, qué documento se está editando o qué contenido aparece en pantalla, algo que le dará margen para ejecutar acciones más precisas sin que el usuario tenga que explicarlo todo desde cero.

Este mayor conocimiento del sistema se traducirá, por ejemplo, en poder decirle: “ajusta el texto de este correo para que suene más formal”, mientras se está redactando en Mail, o “resúmeme lo que aparece en esta página” cuando se navega en Safari. Siri actuará sobre lo que ve en la pantalla, en lugar de limitarse a lanzar aplicaciones o ejecutar atajos básicos.

La integración se extenderá también a apps de terceros. Apple quiere que los desarrolladores puedan conectar sus aplicaciones al nuevo Siri para que el asistente ejecute acciones específicas dentro de ellas, siempre bajo el marco de permisos y privacidad que la compañía mantiene en iOS.

De este modo, Spotify, apps bancarias, servicios de mensajería o herramientas de productividad podrán exponer ciertas funciones a través de Siri, haciendo posible que el usuario gestione buena parte de su actividad sin necesidad de ir saltando constantemente entre iconos y menús.

Siri se abre a la IA de terceros: extensiones y mercado de modelos

Una de las novedades más relevantes desde el punto de vista estratégico es que Apple dejará de tratar a Siri como un sistema cerrado y autosuficiente. En iOS 27, el asistente se convertirá en una especie de “capa de orquestación” capaz de conectarse con distintos modelos de IA según la tarea.

Para lograrlo, la compañía prepara un sistema de “Extensiones” que permitirá integrar servicios de inteligencia artificial de terceros directamente dentro de Siri. A través de este mecanismo, chatbots como ChatGPT, Gemini, Claude, Perplexity y otros podrán funcionar como motores alternativos o complementarios sin que el usuario tenga que abrir cada aplicación por separado.

En la práctica, esto significa que al plantear una petición compleja se podrá elegir qué modelo de IA se encarga de resolverla. Un usuario podría preferir ChatGPT para tareas creativas, Gemini para consultas más técnicas o Claude para análisis de documentos largos, todo ello a través de la misma interfaz de Siri.

Estas extensiones se gestionarán desde los ajustes de iOS 27, iPadOS 27 y macOS 27. El usuario podrá activar o desactivar qué asistentes están disponibles, y decidir en qué casos quiere que se utilice uno u otro. Apple pretende así ofrecer una sensación de plataforma abierta, pero manteniendo el control sobre la experiencia y la seguridad.

Además, se está preparando una sección específica dentro de la App Store dedicada a aplicaciones de IA. Desde ahí se podrán descargar nuevos servicios, instalar sus extensiones para Siri y, en muchos casos, suscribirse a versiones de pago. Esto abre un campo de negocio evidente: Apple recibiría una comisión sobre las suscripciones contratadas a través de su tienda, reforzando el papel del iPhone como puerta de entrada a la inteligencia artificial.

Apple Intelligence y el papel de Gemini bajo el capó

La gran transformación de Siri no llega sola. Forma parte de un plan más amplio de la compañía, agrupado bajo el paraguas de Apple Intelligence, la arquitectura de IA que Apple está desplegando en sus plataformas. Esta estrategia combina procesamiento en la nube y en el propio dispositivo, con especial énfasis en la privacidad.

De acuerdo con la información filtrada, Apple no se limita a usar Gemini, el modelo de Google, como si fuera una API externa cualquiera. La empresa tendría acceso al modelo en sus propios centros de datos para aplicar técnicas de destilación: entrenar modelos más pequeños que imitan el comportamiento de Gemini, pero que pueden ejecutarse directamente en los chips de los iPhone y otros dispositivos.

Este enfoque híbrido permitiría que gran parte de las tareas de IA se procesen localmente, reduciendo la dependencia de los servidores externos y mejorando la velocidad de respuesta. A la vez, las peticiones más exigentes podrían seguir delegándose en la nube cuando sea estrictamente necesario.

En Europa, donde la regulación en materia de datos personales es especialmente estricta, esta combinación de modelos locales y remotos será clave para cumplir con el RGPD y otras normas de privacidad. Apple lleva años diferenciándose por su postura en este terreno, y la nueva Siri tendrá que ajustarse a ese discurso, incluso cuando trabaje con modelos de terceros.

Más allá del asistente, Apple Intelligence incluirá funciones como Answers, un sistema de respuestas rápidas integrado en Spotlight y Safari que utilizará IA para ofrecer soluciones directas sin obligar al usuario a navegar por múltiples páginas web. También se han mencionado planes para reforzar la app Salud, aunque el proyecto más ambicioso de “doctor IA” habría quedado limitado a mejoras más discretas dentro de la aplicación actual.

Compatibilidad, requisitos de hardware y hoja de ruta de iOS 27

En paralelo a las novedades de Siri, Apple está preparando iOS 27 como una versión de “limpieza” y mejora del rendimiento, en la línea de lo que en su día supusieron Snow Leopard en Mac o iOS 12 en el iPhone. La prioridad pasa por reducir la llamada deuda técnica acumulada tras años de añadidos visuales y nuevas capas de software.

Las filtraciones apuntan a que iOS 27 se presentará oficialmente en la WWDC 2026, en un evento previsto para el 8 de junio en el Apple Park (Cupertino). Ese mismo día se liberaría la primera beta para desarrolladores, mientras que la beta pública llegaría unas semanas después, probablemente en julio.

La versión final de iOS 27 se lanzaría alrededor de septiembre, coincidiendo con la salida de los nuevos iPhone. Se espera que un amplio abanico de modelos, desde el iPhone 11 en adelante, sean compatibles con el sistema, siguiendo la estrategia de mantener soporte para dispositivos relativamente antiguos siempre que el foco esté en rendimiento y no en funciones que exijan demasiado hardware.

Sin embargo, no todos los teléfonos y ordenadores recibirán la misma experiencia de la nueva Siri. Las capacidades más avanzadas —como el enrutamiento dinámico entre modelos de IA, la memoria persistente o algunas extensiones complejas— podrían exigir hardware reciente, con más memoria y chips optimizados para cargas de IA. Algunas de estas mejoras incluso están relacionadas con accesorios y novedades de hardware como el nuevo pin con IA del tamaño de un AirTag.

Rumores internos señalan que funciones como la app independiente más potente, el marketplace de extensiones de IA totalmente operativo o ciertos modelos de Apple Intelligence podrían quedar reservados, al menos en su primera fase, a dispositivos de gama alta y generaciones recientes, algo que habrá que confirmar cuando Apple detalle oficialmente la lista de funciones por modelo.

Impacto en el negocio de Apple y en el sector de la IA

La apertura de Siri a múltiples asistentes no responde solo a una cuestión técnica; también tiene un claro componente de negocio. En la actualidad, las apps de IA en la App Store ya generan cientos de millones de dólares al año en suscripciones y compras dentro de la aplicación, una cifra que Apple quiere consolidar y aumentar.

Al permitir que los usuarios se suscriban a servicios como ChatGPT, Gemini o Claude desde la propia interfaz de Siri y los ajustes de Apple Intelligence, la compañía se coloca en el centro de la relación entre usuarios y proveedores de IA. Cada suscripción contratada a través de la App Store deja una comisión en manos de Apple, reforzando su posición como intermediario clave en este mercado.

Este movimiento se combina con otras iniciativas para incrementar los ingresos por servicios digitales, como la introducción de anuncios en Apple Maps en forma de resultados patrocinados, al estilo de lo que ya ofrece Google Maps. Aunque esta medida no está directamente relacionada con Siri, refleja la voluntad de la empresa de ampliar sus vías de monetización más allá del hardware y las suscripciones clásicas.

Al mismo tiempo, abrir Siri a múltiples proveedores de inteligencia artificial supone un giro respecto a la estrategia más cerrada del pasado. Apple pasa de intentar competir solo con su propio modelo a presentarse como la mejor “puerta de entrada” a todas las IA, algo especialmente relevante para usuarios en Europa, donde la fragmentación de servicios y regulaciones hace que un punto de acceso unificado resulte especialmente atractivo.

En el sector tecnológico, este tipo de movimiento puede reconfigurar el equilibrio de fuerzas. Si el iPhone y el resto de dispositivos Apple se convierten en la plataforma preferida para acceder a diferentes motores de IA, la compañía podría ganar peso en un terreno donde hasta ahora iba algo por detrás de otros gigantes de Silicon Valley.

Sin necesidad de grandes eslóganes, lo cierto es que iOS 27 se perfila como el punto de inflexión en el que Siri deja de ser un simple asistente de voz para transformarse en una plataforma completa de inteligencia artificial, abierta a terceros, integrada en todo el sistema y con un papel central en la experiencia diaria de los usuarios de Apple tanto en España como en el resto de Europa.

Meta ficha al jefe de IA de Apple que trabajaba en Siri
Artículo relacionado:
Meta se lleva al responsable de IA de Apple que pilotaba la nueva Siri