Así es el acuerdo de Apple con Google Gemini y lo que cambiará en Siri y Apple Intelligence

  • Apple ha cerrado un acuerdo plurianual con Google para basar sus Apple Foundation Models en Gemini y su nube.
  • Gemini servirá como base técnica para una nueva Siri más avanzada, que se ejecutará en la nube privada de Apple y en los propios dispositivos.
  • Apple mantiene la integración con ChatGPT y refuerza su discurso de privacidad mediante ejecución local y Private Cloud Compute.
  • El pacto, valorado en torno a 1.000 millones de dólares anuales según filtraciones, busca acelerar el despliegue real de Apple Intelligence en iPhone, iPad y Mac.

Acuerdo de Apple con Google Gemini

Tras meses de filtraciones, análisis de código en betas de iOS y declaraciones veladas en conferencias, el acuerdo de Apple con Google Gemini ya es oficial y está empezando a tomar forma técnica. Lejos de ser un simple “Siri usa ahora la IA de Google”, el movimiento dibuja un cambio profundo en la estrategia de Apple para ponerse al día en inteligencia artificial generativa.

La compañía de Cupertino ha aceptado algo que hasta hace poco hubiera sonado casi impensable: apoyarse en los modelos Gemini y en la infraestructura en la nube de Google para construir la próxima generación de sus Apple Foundation Models (AFM). Sobre esos cimientos se desplegarán las nuevas funciones de Apple Intelligence y, en particular, una Siri remodelada que debería llegar a los usuarios a lo largo de este año.

Qué ha firmado exactamente Apple con Google Gemini

Según los comunicados conjuntos y los reportes de medios como Bloomberg o CNN, Apple y Google han cerrado una colaboración plurianual por la que la próxima hornada de Apple Foundation Models se desarrollará tomando como base los modelos Gemini y parte de la tecnología de computación en la nube del gigante de Mountain View. No es un simple “enchufar” Gemini a Siri, sino una cesión de modelo base y herramientas para que Apple construya sus propios sistemas sobre ellos.

Las filtraciones apuntan a que Apple ha licenciado Gemini 3 como modelo fundacional, el equivalente a un “cerebro en bruto” que concentra el conocimiento adquirido por la IA de Google en su entrenamiento en internet y otros datos. Ese modelo llega sin personalidad ni reglas de comportamiento definidas. A partir de ahí, es Apple quien aplica su propia fase de postentrenamiento para adaptarlo a su ecosistema.

Varios analistas describen este enfoque como un sistema de “arnés” o harness: Google entrega el diccionario, pero Apple escribe la novela. En la práctica, el resultado serán Apple Foundation Models que usan la arquitectura y la potencia de Gemini, pero con tono, límites y capacidades ajustadas a iOS, iPadOS y macOS, sin que aparezca visible un “Powered by Gemini” en interfaces como Siri.

En el plano económico, ninguna de las partes ha detallado las cifras, aunque Bloomberg ha informado de que Apple podría estar dispuesta a pagar alrededor de 1.000 millones de dólares anuales por el uso de Gemini en esta nueva etapa. Una inversión que Apple ve como necesaria para acelerar un despliegue de IA que se había atascado en los últimos años.

Gemini bajo el capó: cómo funcionará la nueva arquitectura de Apple Intelligence

Uno de los puntos clave del acuerdo es que Apple no quiere que la experiencia se perciba como un “Siri delegado” en servicios externos. La compañía ha diseñado una arquitectura en tres niveles que combina procesamiento local, nube privada propia y, en la cima, modelos basados en Gemini integrados en sus servidores.

En el primer nivel, el procesamiento en el propio dispositivo, seguirán funcionando modelos pequeños (SLM) capaces de resolver tareas cotidianas sin salir del iPhone, iPad o Mac. Ahí entran funciones como resumir notificaciones, reescribir textos rápidos o gestionar acciones sencillas dentro de las apps. Todo apunta a que estos modelos locales serán versiones destiladas de la tecnología de Gemini, comprimidas para sacar partido del Neural Engine de los chips de Apple.

El segundo nivel lo ocupa el Private Cloud Compute, la nube privada de Apple. Cuando el dispositivo se queda corto de potencia, las peticiones se envían a estos servidores diseñados específicamente con hardware propio y una arquitectura centrada en la privacidad. Antes de aceptar cada solicitud, se realiza una validación criptográfica del dispositivo que garantiza que se trata de un equipo legítimo y actualizado, y se promete que los datos no se almacenan ni se usan para reentrenar modelos.

La gran novedad llega en el tercer nivel, donde entra en juego la fuerza de Gemini. En lugar de mandar las consultas a los centros de datos de Google, Apple integra los modelos de Gemini en sus propios servidores dentro de ese “búnker” de Private Cloud Compute. Es decir, los modelos de Google se ejecutan en la nube de Apple, bajo sus reglas de seguridad y sin que los datos salgan de su perímetro.

Gracias a este diseño, Apple defiende que es posible aprovechar la base de un LLM tan potente como Gemini sin exponer la información personal a terceros. El modelo de Google pone la lógica de IA de última generación, mientras que Apple mantiene el control del entorno, del postentrenamiento y de la experiencia final que ve el usuario en Siri o en el resto de funciones de Apple Intelligence.

Privacidad y control de datos: el argumento clave para Apple

Desde Europa y España, donde los reguladores de protección de datos siguen con lupa cualquier movimiento en IA, una de las grandes preguntas era evidente: qué pasa con la privacidad. El acuerdo anunciando el uso de Gemini reavivó los temores sobre un posible acceso de Google a la información de millones de usuarios de iPhone, iPad y Mac.

En sus mensajes públicos, Apple ha intentado adelantarse a esa preocupación insistiendo en que Apple Intelligence se seguirá ejecutando, por defecto, en los dispositivos o en la nube privada de Apple. La utilización de los modelos de Google se plantea como una pieza interna del proceso de entrenamiento y de inferencia, pero sin habilitar un canal directo de datos hacia los servidores de la compañía del buscador.

El enfoque encaja con la estrategia que la empresa viene defendiendo desde hace años: minimizar la información que sale del dispositivo, procesarla de forma cifrada cuando sea necesario y evitar que se almacenen historiales identificables. En este contexto, el papel de Gemini se limita a ser la base tecnológica sobre la que se construyen modelos adaptados y controlados por Apple.

Fuentes internas citadas por la prensa internacional señalan que, por diseño, Google no tendrá acceso a las consultas individuales ni a los datos personales que se generen en el uso cotidiano de la nueva Siri o de otras herramientas de Apple Intelligence. Para los usuarios europeos, especialmente sensibles a las implicaciones del Reglamento General de Protección de Datos (RGPD), este punto será uno de los más observados cuando las nuevas funciones se desplieguen por completo.

La propia Apple ha subrayado que su apuesta pasa por demostrar que una IA avanzada no tiene por qué equivaler a ceder el control de la información a grandes granjas de servidores externas. La combinación de modelos locales destilados de Gemini y procesamiento en Private Cloud Compute es, en teoría, la manera de cuadrar el círculo entre potencia, rendimiento y privacidad.

Siri en el centro: un rescate a contrarreloj

La realidad que ha empujado a Apple a este acuerdo es que Siri llevaba años descolgada frente a asistentes y chatbots como ChatGPT, Perplexity u otros sistemas basados en grandes modelos de lenguaje. El asistente de la manzana se había quedado anclado en patrones de interacción rígidos, dificultades para entender peticiones complejas y poca capacidad para encadenar tareas.

La gran apuesta para revertir la situación se presentó en la WWDC 2024, cuando Apple dio a conocer Apple Intelligence como una suite transversal de IA integrada en iOS, iPadOS, macOS y sus principales aplicaciones. Allí se prometió una Siri con comprensión de contexto personal, capacidad de “ver” lo que hay en pantalla, acceso coordinado a distintas apps y cientos de acciones automatizadas posibles.

Sin embargo, el salto que se mostró en aquella conferencia tardó en llegar al uso real. A finales de 2024 Apple insistía en que las capacidades más avanzadas de Siri desembarcarían “en los próximos meses”, mientras lanzaba otras piezas de Apple Intelligence como herramientas de generación de imágenes (Image Playground) o Genmoji. El calendario empezaba a tensarse.

En marzo de 2025, la propia compañía matizó el mensaje y reconoció que parte de esas funciones necesitaban más tiempo, rebajando la promesa a una Siri “más personalizada” con llegada escalonada a lo largo del año siguiente. La WWDC 2025 confirmó esa sensación de retraso: la mejora visible del asistente no estuvo al nivel de las expectativas que Apple había alimentado.

Según explicó Craig Federighi, máximo responsable de software, existía una “versión 1” de la nueva Siri lista para lanzarse entre diciembre de 2024 y la primavera de 2025, pero se decidió frenar su salida al considerar que no cumplía los estándares internos ni las expectativas de los usuarios. Ese frenazo es el que ha acabado abriendo la puerta al refuerzo con Gemini.

Calendario, versiones de iOS y despliegue en Europa

El acuerdo con Google no solo implica un cambio técnico, también condiciona el calendario de lanzamientos de Apple Intelligence. Apple se ha acostumbrado a usar las versiones “punto cuatro” de iOS como grandes hitos en sus planes, y todo apunta a que volverá a repetir jugada.

Documentación y filtraciones señalan a iOS 26.4 como la versión destinada a estrenar de forma más visible el “nuevo cerebro” de Siri. Esta actualización serviría de puente entre las capacidades más limitadas de la primera oleada de Apple Intelligence y el despliegue más amplio previsto para iOS 27, donde Gemini debería potenciar el ecosistema de forma más transversal.

Mirando a los antecedentes, las betas de iOS 18.4, 17.4 y 16.4 llegaron entre finales de enero y febrero, con lanzamientos finales alrededor de marzo o abril. Si Apple mantiene ese patrón, los desarrolladores podrían empezar a probar la nueva Siri basada en modelos derivados de Gemini en torno a finales de invierno, con una llegada general al público antes del verano.

En Europa, Apple Intelligence llegó con cierto retraso respecto a otros mercados por dudas regulatorias y de compatibilidad con la normativa comunitaria. Con el acuerdo de Gemini sobre la mesa, la compañía insiste en que el funcionamiento en la UE se ajustará al marco legal vigente, manteniendo la ejecución local y en nubes privadas bajo su control. No se descarta que algunas funciones lleguen por fases o inicialmente en modo “beta pública” mientras se validan aspectos de privacidad y competencia.

En cualquier caso, el objetivo de Apple es claro: tener una Siri reforzada y operativa antes de la WWDC en junio, de manera que pueda presentar iOS 27 y el resto de sus sistemas ya con una base de IA más sólida y probada en dispositivos reales, también en el mercado europeo.

Relación con ChatGPT y otros modelos: un ecosistema de IA a varias bandas

El pacto con Google no sustituye la relación que Apple ya había abierto con otros actores de la IA. En la WWDC 2024, la compañía anunció una colaboración con OpenAI para integrar ChatGPT en determinadas funciones de Apple Intelligence. Desde finales de 2024, Siri puede delegar en ChatGPT aquellas consultas que requieren información en tiempo real o respuestas especialmente elaboradas.

Esa delegación es opcional, se activa solo con el consentimiento explícito del usuario y cumple con las políticas de privacidad de Apple. En la práctica, cuando Siri no se ve capaz de resolver algo por sí misma, ofrece recurrir a ChatGPT, dejando claro que se trata de una llamada a un servicio externo.

Craig Federighi ya adelantó que la idea de fondo era construir un entorno donde los usuarios pudieran elegir entre distintos modelos según sus necesidades: uno más fuerte en escritura creativa, otro más orientado a programación, u otro enfocado en información actualizada. En ese contexto, mencionó abiertamente la posibilidad de añadir Google Gemini como una de esas opciones.

Con el nuevo acuerdo, Gemini pasa de ser una mera alternativa opcional a convertirse en la base técnica principal sobre la que Apple entrenará sus futuros Apple Foundation Models. Aun así, la compañía no ha dado señales de que vaya a romper con OpenAI. Más bien, parece apostar por un escenario donde ChatGPT continúe respondiendo determinadas consultas y Gemini se integre como el “motor” interno de la nueva Siri y de otras funciones de Apple Intelligence.

En paralelo, se han conocido proyectos como World Knowledge Answers, un buscador de respuestas impulsado por IA que combinaría Siri, Safari y Spotlight para ofrecer resúmenes generados por modelos de lenguaje. En este tipo de herramientas, el uso de Gemini como base técnica encaja con la ambición de Apple de competir en el terreno de los buscadores sin replicar simplemente el modelo clásico de resultados con enlaces.

Cambios internos en Apple y presión del mercado

La decisión de recurrir a Gemini no se entiende sin mirar a lo que ha ocurrido en el interior de Apple en los últimos años. El atasco en el desarrollo de la nueva Siri provocó movimientos relevantes en el organigrama. En 2025, la compañía decidió sacar la responsabilidad directa del asistente del área de John Giannandrea, fichaje estrella en IA procedente de Google, y situarla bajo la tutela de Mike Rockwell, ligado al desarrollo de Vision Pro, con reporte directo a Federighi.

Meses después, Apple hizo oficial que Giannandrea dejaría su puesto, que pasaría un tiempo como asesor y que se retiraría en primavera de 2026. El relevo en la vicepresidencia de IA recayó en Amar Subramanya, con el objetivo de alinear de forma más estrecha la estrategia de inteligencia artificial con las decisiones de software y de producto.

En paralelo, Tim Cook había reconocido públicamente que se estaban reasignando equipos enteros a proyectos de IA y que la compañía estaba abierta a adquisiciones que aceleraran la hoja de ruta. Sin embargo, los resultados visibles no llegaban al ritmo esperado, mientras competidores como Google, Microsoft u OpenAI iban encadenando lanzamientos de modelos cada vez más potentes y mediáticos.

Para los mercados financieros, el acuerdo con Google se lee como una señal de que Apple ha decidido acortar por la vía rápida la distancia en capacidades de IA. Analistas como Dan Ives, de Wedbush, hablan de “trampolín” para su estrategia de inteligencia artificial y de “gran validación” para la tecnología de Gemini. No en vano, el anuncio coincidió con nuevos máximos de capitalización para Alphabet, que superó los 4 billones de dólares en valor bursátil.

Al mismo tiempo, Apple confía en que una Siri mucho más capaz y funciones de IA realmente útiles contribuyan a reactivar las ventas de iPhone y otros dispositivos tras varios ejercicios de crecimiento más moderado. Las previsiones de los analistas apuntan a incrementos de doble dígito en unidades vendidas si las nuevas experiencias convencen a quienes están en ciclos de renovación largos.

Europa, competencia y el precedente del buscador de Google

En el terreno de la competencia, el acuerdo de Apple con Google Gemini recuerda inevitablemente a otro pacto histórico entre ambas compañías: el que convirtió a Google en el motor de búsqueda por defecto en los dispositivos de Apple. Durante años, ese contrato ha supuesto miles de millones de dólares anuales para la empresa de Cupertino y ha sido objeto de investigaciones antimonopolio en Estados Unidos y en la Unión Europea.

El Departamento de Justicia estadounidense llegó a argumentar que esos pagos contribuían a consolidar la posición dominante de Google en las búsquedas en línea. Pese a ello, un juez permitió la continuidad del acuerdo, aunque el debate sobre su impacto en la competencia sigue sobre la mesa y es probable que vuelva a aflorar a medida que la IA vaya sustituyendo progresivamente a los buscadores tradicionales.

Con Gemini, los reguladores europeos podrían poner el foco en una nueva dimensión: el riesgo de concentración de poder en el mercado de la IA. Si los principales sistemas operativos móviles del mundo —Android y iOS— dependen en gran medida de modelos desarrollados por la misma compañía, la Comisión Europea querrá analizar con detalle qué margen real tendrán otros proveedores de IA para competir en igualdad de condiciones.

Por ahora, Apple se ampara en que su aproximación sigue siendo de “ecosistema abierto” en lo que respecta a modelos externos, y recuerda que seguirá ofreciendo integración con servicios como ChatGPT y, eventualmente, con otros proveedores como Anthropic o Perplexity si la demanda de los usuarios lo justifica.

En cualquier caso, el impacto regulatorio en Europa no será un asunto menor. La forma en que Apple implemente Gemini dentro de su nube privada, la transparencia con la que explique el tratamiento de los datos y el grado de apertura que permita a terceros modelos serán factores determinantes para evitar fricciones con Bruselas y con las autoridades nacionales de protección de datos.

Qué puede esperar el usuario: una Siri distinta, pero familiar

Más allá de documentos técnicos, cambios de organigrama y debates regulatorios, la gran cuestión para cualquier persona que usa un iPhone, un iPad o un Mac es sencilla: qué va a cambiar realmente el acuerdo con Gemini en el día a día. Y, sobre todo, cuándo se notará.

En la práctica, la promesa es una Siri capaz de manejar peticiones mucho más complejas, entender mejor el lenguaje natural, reaccionar con más contexto y coordinar acciones entre aplicaciones sin tanta fricción. La idea de Apple es que el asistente pueda leer correos, mensajes, citas o documentos y actuar sobre ellos de forma más autónoma, en línea con lo que ya ofrecen algunos chatbots avanzados, pero integrado directamente en el sistema.

El usuario, en principio, no tendrá que decidir si su petición se resuelve con un modelo local, con los Apple Foundation Models basados en Gemini o con una llamada opcional a ChatGPT. Todo ese enrutado ocurrirá en segundo plano, con Siri distribuyendo las consultas según su complejidad, los requisitos de privacidad y la potencia de cálculo necesaria en cada caso.

La experiencia visual también podría cambiar, pero no de forma radical. Apple suele optar por evoluciones discretas en la interfaz, de manera que la sensación sea la de un Siri “que por fin entiende y resuelve” más que la de un producto totalmente nuevo. Donde sí se espera un salto más evidente es en la capacidad del asistente para mantener contexto a lo largo de una conversación y para combinar información de distintas apps en una sola respuesta.

Para los usuarios españoles y europeos, el reto añadido está en la calidad del soporte en distintos idiomas y en la adaptación a servicios locales. Apple deberá demostrar que los modelos entrenados y afinados a partir de Gemini funcionan igual de —o casi— en castellano que en inglés, y que entienden particularidades culturales, geográficas y de uso que son habituales en nuestro entorno.

Todo este movimiento deja una imagen bastante clara: Apple ha optado por utilizar el “cerebro” de Gemini encerrado en su propia caja fuerte para acelerar la evolución de Siri y de Apple Intelligence, manteniendo a la vez su discurso de privacidad y su control sobre la experiencia de usuario. Queda por ver si, cuando llegue el momento de pedirle al iPhone que resuelva tareas realmente complejas, esa combinación de fuerzas se traduce por fin en un asistente a la altura de lo que la compañía lleva prometiendo desde hace años.

Cómo funciona Google Gemini en iPhone
Artículo relacionado:
Apple negocia con Google para usar Gemini