Apple ha puesto toda la carne en el asador para llevar la inteligencia artificial a sus dispositivos sin renunciar a su seña de identidad: la privacidad. En los últimos años, la compañÃa ha presentado un conjunto de avances que van desde modelos que corren en el propio dispositivo hasta una nube privada diseñada a medida para proteger tus datos, además de publicar estudios que cuestionan los lÃmites del razonamiento en los modelos más modernos.
Más allá de los titulares, la apuesta se llama Apple Intelligence: una capa personal de IA con funciones generativas, comprensión del contexto y acciones en apps. Se integra en iPhone, iPad y Mac, y combina procesamiento en local con una infraestructura de servidor exclusiva. La promesa es clara: utilidad real en el dÃa a dÃa, con la mÃnima exposición posible de tu información.
Privacidad y arquitectura: Apple Intelligence y Private Cloud Compute
El núcleo técnico de Apple Intelligence parte de una idea sencilla: todo lo que se pueda ejecutar en tu iPhone, iPad o Mac, se ejecuta ahÃ. Los modelos en el propio dispositivo manejan muchas tareas de lenguaje e imagen sin salir de tu equipo, reduciendo de raÃz los riesgos de exposición.
Cuando la petición requiere más capacidad, entra en juego Private Cloud Compute (PCC), una nube de servidores con chips M4 y M4 Max de Apple y un diseño de seguridad muy distinto al habitual. Antes de que el dispositivo se comunique con la nube, PCC verifica criptográficamente que el software del servidor está publicado para su inspección, de modo que expertos independientes puedan auditarlo. Apple afirma además que los datos no se almacenan ni se comparten.
Esta arquitectura hÃbrida permite escalar entre modelos on‑device y modelos de mayor tamaño en servidor. Según la propia Apple, sus modelos base en local igualan o superan a pequeños equivalentes de otros fabricantes, mientras que los modelos en servidor se sitúan por encima de GPT‑3 y en torno al rendimiento de GPT‑4, siempre con el control de privacidad como prioridad.
En resumen, Apple Intelligence busca entender tu contexto personal para ser útil, pero lo hace con barreras técnicas y organizativas que intentan garantizar que tu información permanezca bajo llave tanto en el dispositivo como en la nube privada.
Lenguaje y productividad: escribir mejor, leer menos

Apple ha introducido herramientas de redacción integradas en iOS, iPadOS y macOS para ayudarte a reescribir, revisar y resumir textos en aplicaciones como Mail, Notas, Pages y en apps de terceros. Puedes pedir que se adapte el tono, pulir la gramática y el vocabulario o convertir un bloque de texto en viñetas, tablas o resúmenes breves.
En Mail aparece Priority Messages, una sección que coloca en primer plano lo urgente (una invitación para hoy, una tarjeta de embarque, etc.). Además, el listado de correos puede mostrar resúmenes generados en lugar de las primeras lÃneas, y las respuestas inteligentes detectan preguntas pendientes para que nada se quede sin contestar.
Las notificaciones también se vuelven más inteligentes. Las Priority Notifications suben a la parte superior lo importante, y los resúmenes condensan conversaciones muy largas en la pantalla de bloqueo. Con el modo Reduce Interruptions, el sistema deja pasar solo aquello que requiere atención inmediata, ayudando a mantener el foco cuando hace falta.
Notas y Teléfono incorporan la grabación con transcripción y resumen. Si grabas una llamada, todos los participantes son notificados automáticamente, y al colgar, Apple Intelligence genera un compendio de los puntos clave. Es una forma práctica de documentar conversaciones sin trabajo extra.
Creatividad: Image Playground y Genmoji
Para la parte más visual, Apple Intelligence incluye Image Playground, un entorno para crear imágenes en segundos con estilos como Animation, Illustration o Sketch. Funciona dentro de Mensajes y cuenta con una app independiente para experimentar sin lÃmites, ya que la generación se realiza en el dispositivo.
El flujo es guiado: eliges conceptos por categorÃas (temas, lugares, accesorios, disfraces), describes lo que buscas o incluso seleccionas a alguien de tu fototeca para integrarlo en la creación. En Mensajes, el sistema sugiere ideas relacionadas con la conversación para que lo que generes encaje con el contexto.
En Notas, la varita de la paleta de Apple Pencil (Image Wand) convierte bocetos en imágenes con un toque, e incluso aprovecha el contexto de la página para rellenar un espacio vacÃo. Además, la API de Image Playground permite a terceros integrar estas capacidades en apps como Keynote, Freeform y Pages.
La expresión sube otro peldaño con Genmoji: escribe una descripción y el sistema crea tu propio emoji, con la opción de basarlo en la cara de alguien de tus fotos. Puedes usarlos como stickers, reacciones (Tapback) o insertarlos en lÃnea, para que tu forma de comunicar sea aún más personal.
Fotos inteligentes y búsquedas naturales
La app Fotos recibe mejoras centradas en el control y la rapidez para encontrar lo que buscas. Puedes realizar búsquedas en lenguaje natural del tipo «Laura haciendo skate con camiseta estampada» o «Sara con pegatinas en la cara», y en vÃdeo saltar directamente al momento relevante.
La nueva herramienta Clean Up detecta elementos que sobran en el fondo y los elimina sin tocar al sujeto principal. Es una forma sutil de limpiar distracciones sin necesidad de herramientas complejas, manteniendo el realismo de la captura.
Recuerdos crea historias a partir de una descripción escrita. Apple Intelligence selecciona las mejores fotos y vÃdeos, estructura la narrativa en capÃtulos y propone canciones de Apple Music que encajan con el ambiente. Todo este proceso se realiza con tratamiento privado en el dispositivo.
El objetivo no es solo encontrar más rápido, sino también transformar automáticamente tu librerÃa en relatos con sentido, donde el sistema entiende qué está pasando en las imágenes y cuándo sucedió para construir una experiencia más emotiva.
Siri: más capaz, contextual y también por escrito
Siri se renueva por dentro y por fuera. Mejora su comprensión del lenguaje natural, sigue el hilo aunque te corrijas sobre la marcha y atiende al contexto entre peticiones. Además, puedes alternar entre voz y texto cuando te convenga; y a nivel visual, un brillo alrededor de la pantalla indica cuándo está activa.
El asistente entiende lo que hay en la pantalla y puede interactuar con contenido de más apps. Si recibes por Mensajes la dirección de alguien, basta con pedir «añade esta dirección a su tarjeta» y Siri hará el resto. También puede desencadenar acciones complejas del tipo «envÃa las fotos de la barbacoa del sábado a MarÃa» sin que tengas que abrir nada.
Otra novedad es su papel como guÃa de uso del dispositivo: Siri responde a miles de «¿cómo hago…?» sobre iPhone, iPad o Mac, desde programar un email en Mail a activar el modo oscuro. Y con Apple Intelligence, se vuelve proactiva al conectar datos personales y contexto: «ponme el podcast que me recomendó Jaime» o «¿a qué hora aterriza mamá?» son ejemplos de peticiones resueltas sin que tengas que recordar dónde está la información.
Lo importante es que la IA accede al contexto necesario para ayudarte, pero con la promesa de privacidad: la mayor parte se procesa en el propio dispositivo y, cuando se escala a la nube de Apple, se hace bajo las garantÃas técnicas de Private Cloud Compute que limitan la exposición de datos.
ChatGPT dentro del ecosistema: cómo, cuándo y con qué lÃmites
Apple integra acceso a ChatGPT en experiencias de sistema: Siri puede consultar al modelo cuando conviene, siempre pidiéndote permiso antes de enviar la solicitud (y adjuntos como imágenes o documentos). Las respuestas llegan sin salir del flujo de iOS, iPadOS o macOS.
La privacidad también está contemplada: las direcciones IP se ocultan y OpenAI no guarda las peticiones por defecto. Si vinculas tu cuenta de ChatGPT, se aplican sus polÃticas y puedes acceder a funciones de pago desde el sistema. La integración usa GPT‑4o, con acceso gratuito sin crear cuenta.
Además, las herramientas de escritura de Apple permiten tirar de ChatGPT para generar imágenes y texto cuando lo elijas. Apple ha dejado la puerta abierta a integrar otros modelos (por ejemplo, Gemini) en el futuro, y ya anticipó que, si su IA no puede con algo, te propondrá usar un modelo de terceros de forma opcional.
Disponibilidad y dispositivos compatibles
Apple Intelligence es gratuita y está disponible en versión beta para iOS 18, iPadOS 18 y macOS Sequoia. El lanzamiento comenzó en inglés (Estados Unidos) y se ha ido expandiendo por fases. En iPhone, muchas funciones llegaron con iOS 18.4, y a partir de abril de 2025 comenzó el despliegue en España en español, aún en beta.
Requisitos de hardware: iPhone 15 Pro y 15 Pro Max, además de iPad y Mac con chip M1 o posterior. Para algunas funciones iniciales, Siri y el idioma del dispositivo debÃan configurarse en inglés (EE. UU.). En el ecosistema Mac e iPad, la compatibilidad comienza con Apple Silicon.
- Mac compatibles: MacBook Air (M1, 2020) o posterior; MacBook Pro (M1, 2020) o posterior; Mac mini (M1, 2020) o posterior; Mac Studio (M1 Max/Ultra, 2022) o posterior; iMac (M1, 2021) o posterior; Mac Pro (M2 Ultra, 2023).
- iPad compatibles: iPad Air (5.ª generación) o posterior; iPad Pro (5.ª generación) o posterior.
- iPhone compatibles: iPhone 15 Pro y 15 Pro Max; familia iPhone 16 (incluyendo 16, 16 Plus, 16e, 16 Pro y 16 Pro Max).
Este recorte obedece a las exigencias de memoria y computación de los modelos on‑device, lo que explica que no se extienda a iPhones anteriores a A17 Pro.
I+D de Apple: fusión de sensores con LLM para entender lo que haces
Apple ha publicado un estudio que demuestra cómo fusionar datos de sensores como audio y movimiento para reconocer actividades cotidianas (cocinar, tender la colada, hacer deporte) sin entrenar un modelo especÃfico para cada tarea. La clave está en una «fusión tardÃa»: primero, pequeños modelos procesan cada señal por separado y generan descripciones/etiquetas en texto; después, un LLM más grande integra esos resúmenes para decidir qué está pasando.
El hallazgo es relevante porque funciona incluso con señales ruidosas y reduce la necesidad de construir modelos ad hoc para cada escenario. También es positivo para la privacidad: el LLM no traga audio crudo, sino descripciones textuales preprocesadas. En el ecosistema Apple, esto se podrÃa traducir en detección de entrenos más precisa en Apple Watch o reconocimiento de actividades en iPhone con menos consumo.
El reto, como siempre, será llevarlo a producto. Aunque Apple publica más investigaciones que antes, una parte de la comunidad percibe que la compañÃa necesita convertir estos avances en funciones visibles con más rapidez, un área donde la expectativa es alta.
Qué nos dice Apple sobre el razonamiento de los modelos
Otra lÃnea de investigación de Apple analiza los modelos especializados en razonamiento (LRMs) y los somete a rompecabezas clásicos como la Torre de Hanoi, cruces de rÃo o saltos de fichas, aumentando la complejidad paso a paso. El resultado es claro: a partir de cierto umbral, la precisión se derrumba hacia cero, incluso si se añade más cómputo.
Los investigadores observan tres regÃmenes: en baja complejidad, los LLM convencionales rinden mejor y más eficiente; en complejidad media, los LRMs tienen ventaja; y en alta complejidad, ambos colapsan. Además, al acercarse al umbral crÃtico, los modelos sorprendentemente reducen su esfuerzo (menos «tokens de pensamiento») aunque el problema sea más difÃcil.
El análisis de las «huellas de razonamiento» revela dos comportamientos: en problemas simples, los modelos hallan la solución pero siguen explorando rutas erróneas («overthinking»); en complejidad media, tantean muchos caminos equivocados antes de acertar; y en alta, ya no aparecen estados intermedios correctos. Incluso cuando se les proporciona el algoritmo paso a paso, los modelos siguen fallando si la complejidad supera su umbral.
Fragilidad en matemáticas de primaria: GSM8K y variantes simbólicas
Apple también ha evaluado LLMs generalistas —incluyendo GPT‑4o, o1‑mini y o1‑preview, además de Llama3‑8B, Phi‑3, Gemma2‑9B y Mathstral‑7B— en tareas de matemáticas de nivel escolar (GSM8K). Con un nuevo conjunto de pruebas (GSM‑Symbolic) que genera variantes controladas, se observó que cambios triviales en nombres o información irrelevante pueden hundir la precisión.
Cuando se aporta «paso a paso», el rendimiento sube, pero alteraciones pequeñas en los valores o en la estructura del enunciado provocan bajadas significativas. La conclusión es incómoda: a menudo los modelos replican patrones vistos durante el entrenamiento más que razonar de manera genuina, lo que se traduce en inestabilidad ante perturbaciones aparentemente inocuas.
Herramientas para desarrolladores: Xcode y modelos base
Para quienes construyen apps, Apple ha presentado modelos base tanto en el dispositivo como en servidor, con un enfoque de adaptadores especializados para tareas como resúmenes o ajuste de tono. Según una evaluación interna, los modelos on‑device superan o igualan a pequeños equivalentes de terceros, y en servidor superan a GPT‑3 y quedan aproximadamente al nivel de GPT‑4.
En Xcode 16 llega la finalización de código predictiva en el dispositivo, impulsada por un modelo entrenado especÃficamente en Swift y las APIs de Apple. Requiere una Mac con al menos 16 GB de memoria. Además, Swift Assist —un chat que usa modelos en la nube— genera, edita y explica código Swift dentro del IDE.
Equipo y talento: asà investiga Apple
Apple mantiene múltiples equipos de investigación y producto en IA: desde infraestructura de aprendizaje automático (cómputo, datos y almacenamiento a escala) hasta expertos en aprendizaje profundo y por refuerzo, con lÃneas que abarcan aprendizaje con y sin supervisión, modelos generativos, aprendizaje multimodal y teorÃa de decisiones. También se trabaja con equipos de procesamiento del lenguaje natural y tecnologÃas del habla.
Otro bloque clave es el de procesamiento del lenguaje natural y tecnologÃas del habla: traducción automática, reconocimiento de entidades, respuesta a preguntas, segmentación de temas, TTS y ASR. Se trabaja con grandes volúmenes de datos y métodos de deep learning para soportar múltiples idiomas y casos reales. Además, hubo movimientos de talento como que Meta se llevó al responsable de IA de Apple.
Estrategia y próximos pasos
En la WWDC 2025, Apple subrayó que la IA ya no es un complemento, sino el corazón del ecosistema. Con chips A18 Pro, M4 y chip M5, parte del procesamiento se refuerza on‑device, y funciones como la traducción de llamadas en tiempo real, resúmenes automáticos y una «Visual Intelligence» para identificar elementos en fotos y vÃdeos ilustran la dirección del producto.
La compañÃa combina una apuesta por su propia IA con integraciones opcionales de terceros (como ChatGPT), una postura coherente con su foco en privacidad y control de la experiencia. En paralelo, han trascendido negociaciones para adquirir Perplexity AI, un motor de búsqueda conversacional que cita fuentes. De concretarse, podrÃa potenciar Siri, reforzar Safari y ofrecer una alternativa nativa a Google dentro del ecosistema, alineada con la transparencia en resultados.
Con Apple Intelligence desplegada como servicio gratuito en dispositivos compatibles, la hoja de ruta pasa por ampliar idiomas, consolidar las garantÃas de Private Cloud Compute y transformar la investigación —desde fusión de sensores hasta evaluación del razonamiento— en mejoras palpables en iOS, iPadOS y macOS.
Apple ha abierto una etapa en la que IA, privacidad y diseño de producto van de la mano: procesamiento en el dispositivo cuando es posible, una nube privada auditable para lo complejo, herramientas de escritura y creatividad integradas, una Siri más útil y consciente del contexto, y estudios que ayudan a entender tanto el potencial como los lÃmites actuales de los modelos. Todo ello dibuja un enfoque sobrio y práctico, donde la tecnologÃa se vuelve invisible para que lo importante sea lo que haces con ella.
