Gemini entra en el corazón de Siri: así será la nueva alianza entre Apple y Google

  • Apple confirma un acuerdo plurianual con Google para usar Gemini como base técnica de la nueva Siri y de los Apple Foundation Models.
  • Gemini actuará como motor de soporte, mientras Apple mantiene el control de la experiencia, la privacidad y el sistema Private Cloud Compute.
  • La nueva Siri llegará este año con más contexto personal, mejor comprensión de pantalla y funciones avanzadas dentro de las apps.
  • El pacto reconfigura el equilibrio en la carrera por la IA, genera críticas de competidores y abre dudas regulatorias en EE. UU. y Europa.

Gemini en el corazon de Siri

Apple ha dado un paso que hasta hace poco habría parecido poco probable: la nueva versión de Siri tendrá a Gemini, la inteligencia artificial de Google, como pieza clave de su funcionamiento. El acuerdo, de carácter plurianual, sitúa a los modelos de Google en el centro de la próxima generación de Apple Intelligence y marca un giro importante en la estrategia de la compañía de Cupertino.

Lejos de ser un simple ajuste técnico, este movimiento supone que el corazón de la IA del iPhone y del resto de dispositivos de Apple se apoyará en la tecnología de un rival histórico, mientras la empresa mantiene el control de la experiencia, la integración con el sistema y sus compromisos de privacidad. La gran promesa para el usuario es clara: una Siri mucho más capaz, contextual y conversacional que llegará a lo largo de este año mediante una actualización de iOS.

Un acuerdo plurianual: Gemini como base de los Apple Foundation Models

Apple y Google han confirmado públicamente una alianza estratégica de varios años para incorporar los modelos Gemini y la infraestructura en la nube de Google como soporte de los llamados Apple Foundation Models. Sobre estos modelos se construyen las funciones avanzadas de Apple Intelligence y, en particular, la futura Siri rediseñada.

Según han explicado ambas compañías en un comunicado conjunto, tras una evaluación técnica extensa Apple concluyó que la tecnología de Google ofrecía “la base más capaz” para sus modelos fundacionales. La decisión llega después de meses de rumores alimentados por referencias a Gemini detectadas en el código de iOS y por los sucesivos retrasos en la hoja de ruta de Siri.

Las cifras económicas del acuerdo no se han hecho públicas, pero informaciones previas apuntaban a pagos anuales cercanos a los 1.000 millones de dólares por parte de Apple, una cantidad que ninguna de las partes ha confirmado. En cualquier caso, el pacto recuerda al histórico acuerdo que ya mantenían ambas empresas para usar el buscador de Google como opción predeterminada en el iPhone, un negocio multimillonario que ha estado bajo escrutinio por presunto comportamiento anticompetitivo.

La novedad ahora es que esa relación se extiende a la capa más sensible de la experiencia de usuario: la inteligencia artificial que da vida a Siri y a Apple Intelligence. No se trata solo de añadir una función concreta, sino de definir quién pone el motor de los modelos que procesan peticiones complejas, entienden contexto y generan contenido.

Gemini como soporte, Apple al mando de la experiencia y la privacidad

Apple ha querido dejar claro que la dependencia de Gemini no implica ceder el control de sus servicios a Google. La arquitectura planteada por la compañía sitúa a los Apple Foundation Models en el centro de Apple Intelligence, mientras que Gemini actúa como una capa de soporte para determinadas capacidades de razonamiento y procesamiento avanzado.

En la práctica, esto significa que Apple Intelligence seguirá ejecutándose tanto en el dispositivo como a través de Private Cloud Compute, la infraestructura propia en la nube que la compañía presentó como uno de los pilares de su estrategia de IA. Este sistema permite derivar a servidores solo las solicitudes más complejas, bajo reglas estrictas de seguridad, auditoría y aislamiento de datos.

Apple insiste en que los datos personales utilizados por Siri y por Apple Intelligence no se emplearán para entrenar modelos externos y que cualquier interacción con tecnologías de terceros se hará bajo sus condiciones de privacidad, algo similar a lo que ya ocurre con la integración opcional de ChatGPT en Siri.

Desde Google, el mensaje también ha sido prudente: Gemini operará dentro de los límites marcados por Apple, respetando la forma en la que la compañía gestiona el tratamiento de la información de los usuarios. De momento, Gemini no aparecerá como una aplicación independiente ni como un asistente visible, sino como el “cerebro” que refuerza los modelos que hay detrás de Siri.

Una Siri mucho más personal, contextual y conversacional

La consecuencia más visible para el usuario será una Siri renovada que promete ser más personal, flexible y útil en el día a día. Apple lleva años prometiendo una gran evolución del asistente desde la presentación de Apple Intelligence en la WWDC de 2024, pero el salto real se ha ido posponiendo. La integración de Gemini aspira a desbloquear ese avance.

Los planes de la compañía pasan por lanzar la nueva Siri a lo largo de este año mediante una actualización de iOS, con muchas miradas puestas en una posible versión 26.4 del sistema que podría llegar en primavera. En paralelo, el acuerdo con Google se presenta como la forma de acelerar el desarrollo mientras Apple sigue trabajando en modelos propios de mayor escala.

En lo funcional, la futura Siri debería ser capaz de mantener conversaciones mucho más naturales, comprender matices sin necesidad de órdenes rígidas y moverse con soltura entre preguntas relacionadas, sin que el usuario deba repetir continuamente la información. El objetivo es acercarse a lo que ya ofrecen asistentes basados en IA generativa como los de OpenAI o Perplexity, que han elevado el listón de la interacción conversacional.

Además, Apple quiere que Siri tenga un mayor contexto personal: que pueda interpretar datos de apps como Mensajes, Correo, Calendario o Fotos para ofrecer respuestas y acciones realmente adaptadas a la situación de cada persona, siempre dentro de los límites de privacidad marcados por la compañía.

Funciones avanzadas: de entender la pantalla a ejecutar tareas complejas

Las mejoras de Siri no se quedarán en la conversación. Uno de los grandes objetivos es dotar al asistente de capacidad para “ver” lo que ocurre en la pantalla y actuar en consecuencia. Eso incluye identificar direcciones en una foto o un mensaje, detectar personas en imágenes o interpretar el contenido de una app abierta para responder con más precisión.

También está previsto que la integración más profunda con las aplicaciones, tanto de Apple como de terceros, permita que el usuario pueda encadenar acciones dentro y entre apps con una sola instrucción de voz: mover ficheros de una aplicación a otra, editar una foto en una app concreta y enviarla por mensaje, crear un documento estructurado en Notas o gestionar listas avanzadas sin tocar la pantalla.

Informaciones filtradas apuntan a que Apple trabaja en al menos siete grandes bloques de nuevas funciones para el asistente, más allá de lo anunciado inicialmente. Entre ellas se incluyen la posibilidad de responder a preguntas cotidianas en un tono más conversacional, generar historias o pequeños textos personalizados, ofrecer cierto grado de soporte emocional y recordar conversaciones anteriores para utilizarlas como contexto futuro.

En combinación con Gemini, estos cambios deberían permitir que las tareas más complejas se resuelvan, se planifiquen actividades, se organicen eventos y se completen procesos de varios pasos con una sola orden. Si las promesas se cumplen, estaríamos ante la mayor revisión del asistente desde su lanzamiento original en 2011, con un salto cualitativo que podría situarlo de nuevo entre las opciones más avanzadas del mercado.

Retrasos, cambios internos y la presión de la competencia

El giro hacia Gemini no se entiende sin el contexto de los últimos años. Apple ha reconocido de forma implícita que su hoja de ruta inicial para Siri no se estaba cumpliendo. Lo que en la WWDC de 2024 se presentó como inminente ha ido encadenando retrasos y ajustes de calendario.

A finales de 2024, la compañía seguía asegurando que las funciones más potentes de Siri llegarían “en los próximos meses”, mientras se centraba en lanzar otras piezas de Apple Intelligence, como herramientas de generación de imágenes o funciones creativas. Sin embargo, las sucesivas conferencias y actualizaciones no mostraban el salto de calidad que gran parte de los usuarios esperaba.

En 2025, la situación empezó a tener reflejo interno. Siri cambió de responsables dentro de la estructura de Apple y se encadenaron salidas y relevos en los puestos clave de inteligencia artificial. El mensaje que trascendía era claro: la empresa no estaba satisfecha con el resultado y buscaba un enfoque distinto.

Al mismo tiempo, la competencia avanzaba muy rápido. OpenAI, Microsoft, Google y otros actores del sector estrenaban modelos cada vez más capaces, integrados en buscadores, sistemas operativos y servicios en la nube. En ese escenario, el acuerdo con Google se presenta como una forma de ganar velocidad apoyándose en una tecnología que ya está probada y desplegada a gran escala.

Desde el punto de vista de negocio, la jugada también responde a una realidad: levantar desde cero una infraestructura de centros de datos y entrenamiento de modelos comparable a la de los grandes proveedores de nube requiere inversiones masivas. Apple ha optado, al menos por ahora, por concentrarse en el dispositivo, el diseño y la distribución, apoyándose en socios externos para la capa de IA más intensiva en recursos.

Reacciones, críticas y dudas regulatorias

La colaboración entre Apple y Google no solo tiene implicaciones técnicas; también reordena el tablero competitivo de la inteligencia artificial. La idea de que dos de las mayores compañías del sector compartan el mismo “corazón” de IA en el móvil ha encendido las alarmas en rivales y reguladores.

Algunos actores de la industria consideran que la suma de Android, Chrome, el buscador de Google y ahora el papel de Gemini dentro de Siri podría concentrar demasiado poder en manos de Alphabet. Este debate se suma a los procesos antimonopolio ya abiertos en Estados Unidos y a la atención creciente de los reguladores europeos sobre los llamados “gatekeepers” digitales.

Competidores directos en el ámbito de la IA generativa también observan el acuerdo con recelo. Empresas que desarrollan modelos alternativos, desde OpenAI hasta proyectos más pequeños, temen quedar relegadas si la combinación de Apple como dueño del dispositivo y Google como proveedor del motor de IA se consolida como estándar de facto en gran parte del mercado.

Para Apple, el equilibrio es delicado: necesita acelerar su oferta de inteligencia artificial para no quedarse atrás, pero al mismo tiempo debe evitar que la percepción pública sea la de una cesión excesiva de control a un rival histórico, especialmente en mercados como el europeo, muy sensibles a los problemas de competencia.

Por ahora, la compañía insiste en que la relación con otros socios de IA no desaparece y que servicios como ChatGPT seguirán disponibles como complemento, no como base principal del sistema. De este modo, mantiene varias opciones abiertas y refuerza el mensaje de que el centro de decisión sigue estando en su ecosistema.

La próxima generación de Siri y Apple Intelligence se perfila como una mezcla peculiar: Apple pondrá la cara, la experiencia de uso y las garantías de privacidad; Google aportará una parte importante del cerebro que permitirá que todo funcione con fluidez. La respuesta definitiva llegará cuando los usuarios europeos y del resto del mundo empiecen a probar la nueva Siri en su iPhone y vean hasta qué punto esas promesas se traducen en un asistente realmente más útil, rápido y entendible en el día a día.

Siri integrará Google Gemini
Artículo relacionado:
Siri integrará Google Gemini: el plan de Apple para su asistente