Siri impulsado por Gemini: así será el nuevo asistente de Apple

  • Apple presentará el nuevo Siri impulsado por Gemini en la segunda mitad de febrero, con las primeras funciones llegando en iOS 26.4.
  • El proyecto, con nombre en clave "Campos", transformará Siri en un chatbot de IA generativa integrado en iOS 27, iPadOS 27 y macOS 27.
  • Los Apple Foundation Models v10 y v11, basados en Gemini, se ejecutarán en la nube privada de Apple y, en los modelos más avanzados, podrían apoyarse en la infraestructura de Google.
  • El nuevo Siri será capaz de entender el contenido de la pantalla, usar datos personales con más contexto y realizar tareas complejas al estilo de ChatGPT o Gemini.

Siri impulsado por Gemini

Apple se prepara para dar uno de los mayores giros en la historia de Siri: el asistente pasará a estar impulsado por la inteligencia artificial generativa de Google Gemini, en un movimiento con el que la compañía busca ponerse al día en la carrera de la IA frente a rivales como OpenAI, Microsoft o Amazon. Lo que hasta ahora era un asistente de voz bastante limitado aspira a convertirse en un chatbot conversacional mucho más potente, capaz de entender el contexto, manejar documentos y actuar directamente sobre el dispositivo.

Las primeras muestras de este cambio llegarán en las próximas semanas, pero la transformación será progresiva. Apple ha diseñado una hoja de ruta en dos grandes fases, apoyada en lo que internamente denomina Apple Foundation Models, versiones personalizadas de los modelos de Gemini que se integrarán de forma profunda en iOS, iPadOS y macOS.

Presentación del nuevo Siri impulsado por Gemini: fechas y primeras funciones

Nuevo Siri con Gemini

Según información adelantada por Mark Gurman (Bloomberg) y recogida por distintos medios europeos, Apple planea mostrar en público su “nuevo Siri” en la segunda quincena de febrero. No se descarta que la compañía organice una presentación específica o una pequeña keynote para enseñar demostraciones prácticas del asistente impulsado por Gemini, más allá de lo que ya se vio en la WWDC 2024.

Este primer paso no será todavía la versión definitiva del chatbot, sino una actualización intermedia que llegará con iOS 26.4. Esta versión del sistema entrará en pruebas beta durante febrero y su lanzamiento general se sitúa entre marzo y abril, de modo que en Europa y España los usuarios podrían empezar a probar las nuevas capacidades de Siri en primavera, siempre que sus dispositivos sean compatibles y Apple active las funciones en nuestra región.

En esta fase inicial, Siri recibirá funciones “más listas” que se apoyarán en Apple Foundation Models v10, una familia de modelos basada en Gemini y adaptada por Apple. Estos modelos, según las filtraciones, manejarían en torno a 1,2 billones de parámetros, y se ejecutarían desde la nube privada de Apple con el objetivo de equilibrar rendimiento, latencia y privacidad.

Entre las novedades destacadas que se esperan para iOS 26.4 está la capacidad de que Siri analice el contenido de la pantalla del iPhone o iPad y tenga en cuenta el historial reciente y ciertos datos personales para responder de forma más útil. Esto permitirá, por ejemplo, que el asistente entienda a qué aplicación nos referimos, qué documento tenemos abierto o qué conversación estamos leyendo sin necesidad de que el usuario dé tantas explicaciones. (Ver cómo funcionará Gemini en el iPhone.)

Proyecto «Campos»: Siri se convierte en un chatbot de IA generativa

Chatbot Siri con Gemini

La auténtica revolución llegará con la segunda fase, cuyo nombre interno es “Campos”. Este proyecto transformará a Siri en el primer chatbot de IA generativa de Apple, con una experiencia más cercana a la de ChatGPT o al propio Gemini que a la del asistente actual basado en comandos predefinidos.

Apple tiene previsto estrenar esta versión renovada de Siri junto con iOS 27, iPadOS 27 y macOS 27. La presentación oficial se haría en la próxima edición de la Conferencia Mundial de Desarrolladores (WWDC), que tradicionalmente se celebra en junio, y en la que también se detallarán las nuevas capacidades de Apple Intelligence y del ecosistema de servicios en torno a la IA.

Con Campos, la interfaz tradicional de Siri desaparecerá para ser sustituida por una experiencia más conversacional y bidireccional. El usuario podrá seguir activando el asistente diciendo “Siri” o manteniendo pulsado el botón lateral, pero a partir de ahí se abrirá un entorno de chat en el que se podrá escribir o hablar de forma natural, encadenar preguntas y pedir tareas complejas sin tener que formular la orden perfecta a la primera.

Las capacidades previstas incluyen búsqueda en Internet, generación de textos, creación de imágenes, escritura de código, resumen de información y análisis de documentos. Además, el nuevo Siri será capaz de interpretar lo que ocurre en el dispositivo: desde ver qué hay en pantalla hasta acceder (con permisos) a fotos, correos, notas o eventos de calendario para completar acciones directamente, como editar una imagen, preparar un correo relacionado con una reunión o localizar archivos por su contenido, no solo por el nombre.

Otra de las funciones destacadas será la capacidad de analizar y actuar sobre lo que aparece en la pantalla. Esto permitiría, por ejemplo, pedirle a Siri que extraiga datos importantes de un PDF abierto, que organice una serie de citas recogidas en un chat de mensajería o que configure un recordatorio relacionado con un mensaje concreto sin que el usuario tenga que copiar y pegar nada. También podría editar una imagen directamente desde la fototeca con instrucciones sencillas.

En el ámbito creativo, el nuevo asistente podrá generar imágenes bajo demanda, proponer variaciones de diseños sencillos o ayudar con la edición básica de fotografías presentes en la fototeca. En entornos de trabajo o estudio, se le podrá pedir que escriba fragmentos de código, explique funciones de programación o revise textos en busca de errores gramaticales o de estilo.

Todo ello se complementará con una memoria limitada pero útil. A diferencia de otros chatbots que recuerdan conversaciones de forma extensa, Apple optaría por retener solo cierta información durante un tiempo o hasta un número determinado de interacciones, con el objetivo de mantener un equilibrio entre comodidad y privacidad. Los detalles exactos sobre cuánto recordará Siri y cómo se podrá gestionar esa memoria aún no han trascendido.

Privacidad, nube y el encaje en Europa

La adopción de Gemini dentro de Siri plantea un reto añadido para Apple en mercados como la Unión Europea y España, donde la regulación de datos y la protección de la privacidad son especialmente estrictas. La compañía ha insistido en otras ocasiones en que quiere que la IA avanzada se ejecute, siempre que sea posible, de forma local o en nubes privadas muy controladas, una filosofía que ahora choca parcialmente con la necesidad de recurrir a la infraestructura de Google para los modelos más potentes.

De momento, la información disponible apunta a que la primera oleada de funciones —las asociadas a Apple Foundation Models v10— se procesará mayoritariamente en servidores propios de Apple. En cambio, para los modelos v11 y las funciones equiparables a Gemini 3, la compañía valoraría derivar parte del trabajo a los centros de datos de Google con TPU, lo que obliga a definir con claridad dónde se almacenan los datos, durante cuánto tiempo y bajo qué condiciones legales.

En Europa, cualquier movimiento de este tipo estará bajo la lupa de los reguladores y de las autoridades de protección de datos. Apple tendrá que explicar qué información envía a la nube, cómo se anonimiza, qué controles ofrecerá al usuario para limitar el uso de sus datos personales y de qué manera se ajusta todo ello al Reglamento General de Protección de Datos (RGPD) y a la nueva normativa sobre IA que se está tramitando en la UE.

La compañía también es consciente de que buena parte de su imagen pública en el mercado europeo se ha construido en torno a la idea de que “la privacidad es un derecho fundamental”. En consecuencia, resulta poco probable que Apple se permita un despliegue de funciones que pueda percibirse como demasiado intrusivo sin ofrecer, al mismo tiempo, opciones claras para desactivar o limitar el uso de la IA generativa en Siri.

En la práctica, esto podría traducirse en modos de funcionamiento diferenciados: uno más potente, con más funciones basadas en la nube, y otro más restringido y centrado en capacidades locales, algo que podría ser especialmente relevante para empresas, administraciones públicas o usuarios que prioricen la confidencialidad de sus datos.

El desembarco de un Siri impulsado por Gemini marca un cambio de rumbo notable en la estrategia de Apple con la inteligencia artificial: tras varios intentos fallidos y retrasos, la compañía ha optado por apoyarse en la tecnología de un competidor directo para ofrecer un asistente mucho más capaz, con una transición en dos fases que irá de iOS 26.4 a iOS 27. Si se cumplen los plazos previstos, los usuarios de España y Europa verán en los próximos meses cómo Siri pasa de ser un asistente limitado a un chatbot conversacional integrado en todo el sistema, con más contexto, más funciones y también más interrogantes sobre cómo se gestionarán la privacidad y el papel de Google en el corazón del ecosistema de Apple.

Siri como chatbot de IA para iOS 27
Artículo relacionado:
Siri se reinventa como chatbot de IA en iOS 27