Apple acaba de confirmar lo que llevamos meses esperando: Siri se transforma completamente con inteligencia artificial de Gemini de Google. El nuevo Siri utilizara un modelo de 1.2 billones de parametros ejecutandose en Apple Private Cloud Compute, con capacidades que incluyen "on-screen awareness", acciones entre apps y contexto personal. Llega con iOS 26.4 a finales de marzo. Despues de probar cada version de Siri desde su lanzamiento en 2011, puedo decir que esto es el cambio mas radical que ha tenido.
Que es el acuerdo Apple-Google
Segun reporta 9to5Mac, Apple firmo un acuerdo multianual con Google en enero de 2026, pagando aproximadamente $1,000 millones anuales por la integracion de Gemini. Lo mas importante: es "white-labeled", lo que significa que no veras branding de Google. Desde la perspectiva del usuario, sigue siendo Siri, pero drasticamente mas inteligente.
Las 4 funciones clave del nuevo Siri
| Funcion | Que hace | Ejemplo practico |
|---|---|---|
| On-Screen Awareness | Siri ve lo que hay en tu pantalla | Lees un email sobre una reunion → Siri la agrega al calendario automaticamente |
| Personal Context | Accede a notas, emails y mensajes | "Siri, que me dijo Juan sobre el proyecto?" → busca en tus mensajes |
| In-App Actions | Controla apps por voz sin abrirlas | "Siri, sube el brillo en Lightroom" → ejecuta la accion directamente |
| Multi-Step Chains | Encadena hasta 10 acciones secuenciales | "Reserva cena para 2, envia la direccion a Maria y pon alarma para salir" |
Como funciona la privacidad
Apple implemento una arquitectura de tres capas que protege tus datos:
- Capa local: Tareas simples se procesan en el dispositivo (chip A18/M5)
- Apple Private Cloud Compute: Solicitudes complejas van a los servidores de Apple con cifrado de extremo a extremo
- Buffer de privacidad: Solo las consultas mas demandantes llegan a Gemini, y pasan por una capa de anonimizacion antes de tocar los servidores de Google
Segun Gadget Hacks, esta arquitectura multinivel es la mas sofisticada que Apple ha implementado para un servicio de IA. En mi experiencia con asistentes virtuales, es el enfoque mas robusto de privacidad que he visto.
Siri viejo vs Siri nuevo: comparativa
| Capacidad | Siri actual | Siri con Gemini (iOS 26.4) |
|---|---|---|
| Modelo de IA | Basico, reglas predefinidas | Gemini 1.2T parametros |
| Contexto de pantalla | No | Si (on-screen awareness) |
| Acceso a datos personales | Limitado | Notas, emails, mensajes |
| Acciones entre apps | Basicas (abrir app) | Hasta 10 acciones encadenadas |
| Conversacion natural | Pobre | Chatbot completo (iOS 27) |
| Privacidad | En dispositivo | 3 capas + anonimizacion |
Cuando llega y en que dispositivos
La linea temporal confirmada:
- iOS 26.4 (finales de marzo 2026): Personal Context, On-Screen Awareness, In-App Actions
- iOS 26.5 (mayo 2026): Funciones adicionales que no esten listas para marzo
- iOS 27 (septiembre 2026): Siri como chatbot conversacional completo, Apple Foundation Models v11
Dispositivos compatibles: iPhone 15 Pro y posteriores, iPad y Mac con chip M1 o superior. Modelos anteriores tendran soporte limitado.
Problemas comunes
Algunos features pueden retrasarse
Segun 9to5Mac, Apple esta enfrentando problemas internos con la fiabilidad del nuevo Siri. Algunas funciones podrian posponerse a iOS 26.5 o iOS 27. El nucleo (Personal Context + On-Screen Awareness + In-App Actions) si llega en marzo.
Mi iPhone no es compatible
Si tienes iPhone 14 o anterior, no recibiras el nuevo Siri completo. Apple podria ofrecer funcionalidad limitada con mas dependencia del cloud, pero la experiencia completa requiere iPhone 15 Pro o posterior. Llevo tiempo usando el 15 Pro y la diferencia del Neural Engine es clave para estas funciones.
Le estoy dando mis datos a Google?
No directamente. Apple usa un buffer de privacidad que anonimiza los datos antes de enviarlos a Gemini. Ademas, la mayoria de consultas se procesan localmente o en Apple Private Cloud Compute, no en servidores de Google.