- Apple Intelligence integra IA en iPhone, iPad, Mac, Apple Watch y Vision Pro como una capa de inteligencia personal centrada en la privacidad.
- Combina procesamiento local en el dispositivo con Computación Privada en la Nube y una Siri renovada e integrada opcionalmente con ChatGPT.
- Ofrece herramientas de escritura, traducción en tiempo real, inteligencia visual, mejoras en Fotos y gestión inteligente de notificaciones y correos.
- Solo está disponible en dispositivos recientes con chips A17 Pro o Apple Silicon y requiere versiones actualizadas de los sistemas y configuración de idioma compatible.

Apple Intelligence se ha convertido en el gran eje de la nueva generación de iPhone, iPad, Mac y Apple Watch, una capa de inteligencia personal que no solo genera texto o imágenes, sino que entiende tu contexto, tus datos y tu forma de usar el dispositivo para ayudarte de manera mucho más útil. Todo ello con un enfoque muy claro: que tu información privada se quede donde tiene que estar, en tu dispositivo.
Lejos de ser “otra IA más”, Apple Intelligence mezcla modelos locales, computación en la nube privada y una Siri completamente renovada para ofrecer traducción en tiempo real, resúmenes, mejoras en Fotos, creación de emojis personalizados, automatizaciones inteligentes y mucho más. Vamos a ver, con calma pero sin rodeos, qué ofrece, cómo funciona, qué móviles y ordenadores son compatibles y por qué la privacidad es el punto que lo cambia todo.
Qué es exactamente Apple Intelligence y por qué Apple la llama “inteligencia personal”
Apple Intelligence es el sistema de inteligencia artificial desarrollado por Apple e integrado directamente en iOS, iPadOS, macOS, visionOS y watchOS. No es una app concreta ni un chatbot aislado, sino un conjunto de funciones distribuidas por todo el sistema: en Mensajes, Mail, Fotos, Notas, Safari, Atajos, Siri y muchas otras partes.
La idea de Apple es que no tengas que “entrar a una IA” para usarla, sino que la inteligencia aparezca justo donde la necesitas: al escribir un correo, al mirar una foto, al recibir una notificación o al traducir una llamada. Por eso Apple habla de “inteligencia personal”: se apoya en tus datos (tus correos, tus eventos, tus fotos, tus notas) para darte respuestas útiles y personalizadas, pero con el compromiso claro de que esa información no se usa para entrenar modelos ni se comparte con terceros.
Otro matiz importante es que Apple Intelligence funciona de forma autónoma respecto a otros proveedores. Aunque puede integrarse con ChatGPT para ciertas tareas más abiertas o creativas, o conectar con alternativas locales como Jan AI, el núcleo de la experiencia lo ponen los modelos de Apple, diseñados para ejecutarse en los chips A17 Pro y Apple Silicon, y reforzados con servidores propios bajo un sistema llamado Computación Privada en la Nube.
Privacidad por diseño: Apple Intelligence y la Computación Privada en la Nube
Uno de los grandes miedos con cualquier IA es qué pasa con tus datos personales. Apple ha montado toda la arquitectura de Apple Intelligence precisamente alrededor de esa duda: todo lo que pueda hacerse en tu dispositivo, se hace ahí; y cuando hace falta más potencia, se recurre a servidores con una capa extra de protección.
En el día a día, la mayoría de las tareas se procesan directamente en tu iPhone, iPad o Mac. Es decir, tus correos, fotos, mensajes o recordatorios se analizan dentro del propio dispositivo. De esta forma, Apple Intelligence puede “conocer” tu contexto (qué te han escrito, qué tienes en el calendario, qué aparece en la pantalla) sin tener que enviar esa información a la nube para procesarla.
Cuando el sistema necesita modelos más pesados, entra en juego la Computación Privada en la Nube (Private Cloud Compute). En lugar de usar servidores genéricos, Apple ha desplegado infraestructura con sus propios chips y un sistema de seguridad muy rígido: las peticiones se procesan de forma fragmentada, no se almacenan, y el software que corre en esos servidores puede auditarse por terceros para comprobar que no se guarda nada.
La clave está en que Apple Intelligence nunca construye un perfil comercial sobre ti ni comparte tus datos para entrenar modelos. El objetivo es que siga siendo una inteligencia personal, no una máquina de recopilación de información. Incluso la integración con ChatGPT se hace de forma explícita: cada vez que Siri u otra función necesite enviar algo a ChatGPT, verás un aviso y podrás decidir si quieres hacerlo o no.
Dispositivos compatibles con Apple Intelligence
Apple Intelligence no está disponible para todos los dispositivos, porque exige bastante potencia de procesador y memoria. Por eso Apple ha limitado su compatibilidad a los modelos más recientes de cada familia, centrados en los chips A17 Pro y Apple Silicon.
En iPhone, Apple Intelligence se puede usar en los modelos de iPhone 15 Pro y en todos los iPhone 16 y posteriores. Dicho de otra forma, si tu iPhone no tiene chip A17 Pro o superior, no podrás activar estas funciones de forma oficial.
En el ecosistema iPad, Apple Intelligence requiere al menos un chip M1. Eso incluye los iPad Air y iPad Pro con Apple Silicon, además del iPad mini con chip A17 Pro; si quieres exprimir iPadOS al detalle, consulta nuestra guía. Si tu iPad usa todavía procesadores de la serie A anteriores (A14, A13, etc.), se quedará fuera de esta nueva generación de inteligencia personal.
En Mac ocurre algo parecido: solo los ordenadores con chip M1 o superior (toda la gama Apple Silicon desde 2020) pueden usar Apple Intelligence. Cualquier Mac con procesador Intel se queda sin soporte, incluso aunque siga recibiendo otras actualizaciones del sistema operativo, y puedes leer más sobre las novedades de software para Mac.
Además, Apple Vision Pro entra de lleno en el juego y también es compatible con bastantes de las funciones de Apple Intelligence, especialmente en visionOS 26 y versiones posteriores. Y aunque el Apple Watch no ejecuta los modelos directamente, puede aprovechar varias prestaciones cuando está enlazado a un iPhone compatible y cercano.
Requisitos de software, idioma y limitaciones regionales
No basta con tener un dispositivo compatible: también necesitas la versión adecuada de sistema operativo y algo de espacio libre. Apple ha marcado unos mínimos bastante claros para que Apple Intelligence funcione con normalidad.
En iPhone e iPad, necesitarás iOS 18.1 o posterior e iPadOS 18.1 o posterior para empezar a usar Apple Intelligence, aunque muchas de las funciones más avanzadas llegan con iOS 18.4, iPadOS 18.4 y versiones sucesivas. En Mac, el requisito base es macOS Sequoia 15.1 o superior; en Apple Vision Pro, visionOS 2.4 o posterior; y en Apple Watch, watchOS 11 o posterior.
Otro punto clave es el espacio de almacenamiento: Apple Intelligence requiere alrededor de 7 GB libres en el dispositivo para descargar y alojar los modelos locales (esta exigencia no se aplica al Apple Watch). Si vas muy justo de espacio, el sistema puede tardar en descargar los modelos o incluso no llegar a activar la función hasta que liberes memoria.
También es imprescindible que el idioma de Siri y el del dispositivo coincidan y estén entre los idiomas soportados. Con iOS 26.1, iPadOS 26.1 y macOS 26.1, Apple Intelligence está disponible en un amplio abanico de idiomas: alemán, chino simplificado y tradicional, coreano, danés, español, francés, inglés, italiano, japonés, neerlandés, noruego, portugués, sueco, turco y vietnamita. No todas las funciones están en todos los idiomas, pero la base ya es bastante amplia.
En el caso de Apple Vision Pro con visionOS 26.1, las prestaciones de Apple Intelligence llegan de inicio en alemán, chino simplificado y tradicional, coreano, español, francés, inglés, italiano y japonés. La disponibilidad exacta de cada característica puede variar según plataforma, región y versión de sistema.
Hay además una limitación importante: los dispositivos compatibles comprados en China continental, de momento, no pueden usar Apple Intelligence. Y aunque compres el dispositivo fuera, si estás físicamente en China continental y tu región de la cuenta de Apple es también China continental, las funciones tampoco se activarán. Apple ha confirmado que, cuando se habiliten allí, los dispositivos compatibles comprados antes podrán empezar a usar Apple Intelligence en esa región.
Cómo activar y desactivar Apple Intelligence
Activar Apple Intelligence es relativamente sencillo, aunque puede llevar algo de tiempo por la descarga de los modelos. Lo primero es asegurarte de que tu dispositivo cumple los requisitos de hardware y software, y que has actualizado a la última versión disponible del sistema.
En un iPhone o iPad compatible con la función, entra en Ajustes y busca el apartado “Apple Intelligence y Siri”. Dentro verás la opción para activar Apple Intelligence; dependiendo de la versión que tengas y de si ya lo habías configurado antes, puede aparecer como un interruptor o como un botón del tipo “Activar Apple Intelligence”. Al pulsarlo, se descargan los modelos necesarios.
Para que el proceso vaya más rápido, es recomendable mantener el dispositivo conectado a una red Wi‑Fi y enchufado a la corriente mientras se descargan los modelos. El tiempo puede variar según la conexión y la carga de los servidores, pero el sistema irá mostrando el progreso. En algunos casos, sobre todo en iPhone, se descarga un paquete adicional específico para Apple Intelligence.
Si cambias el idioma de Siri a uno distinto, es posible que Apple Intelligence quede temporalmente inactivo hasta que se descarguen de nuevo los modelos correspondientes a ese idioma y coincida con el idioma del sistema. Y si en algún momento decides que no quieres seguir usándolo, puedes volver al mismo menú de Ajustes y desactivar Apple Intelligence; al hacerlo, los modelos locales se eliminan del dispositivo.
En Apple Watch, la cosa es algo distinta: las funciones dependen de que el reloj esté enlazado con un iPhone compatible con Apple Intelligence y cercano. Mientras esa condición se cumple y el iPhone tiene activada la función, el reloj podrá aprovechar prestaciones como Workout Buddy o los resúmenes de notificaciones basados en Apple Intelligence.
Funciones de escritura, generación y resumido de textos
Una de las partes más visibles de Apple Intelligence son las herramientas de escritura repartidas por el sistema. No se trata solo de autocompletar, sino de revisar, reescribir y resumir contenido prácticamente en cualquier lugar donde puedas escribir.
Estas herramientas aparecen en apps como Mail, Notas, Mensajes, Pages y muchas otras. Puedes usarlas para que te propongan una redacción inicial a partir de unas pocas palabras clave, para adaptar el tono de un texto (más formal, más directo, más desenfadado) o para corregir estilo y gramática. Si tienes que mandar un correo delicado y no sabes cómo arrancar, Apple Intelligence puede generar ese primer borrador por ti.
Otra utilidad muy práctica es el resumen de textos largos. Puedes pedirle que condense un correo eterno a los puntos clave, que te haga un resumen de un artículo que estés leyendo o que reduzca una nota larguísima a un esquema más fácil de revisar. Es especialmente útil cuando recibes muchos mails o documentos y quieres ir al grano sin perder la información importante.
Estas funciones de escritura no se quedan solo en texto plano; también se integran con Siri y con la conexión opcional a ChatGPT. En contextos donde hace falta más creatividad o un estilo muy concreto, Siri puede preguntarte si quieres usar ChatGPT, y solo si aceptas se enviará el contenido para obtener una respuesta más elaborada.
Image Playground, Genmoji y la creación de imágenes
Apple Intelligence también pone mucho foco en la parte visual: stickers, ilustraciones, imágenes para trabajos y emojis personalizados. Todo ello se concentra en herramientas como Image Playground, la Varita Gráfica (Image Wand) y Genmoji.
Con Image Playground puedes generar imágenes en cuestión de segundos describiendo lo que quieres ver. El sistema ofrece varios estilos, como Animación, Ilustración o Boceto, y te permite jugar con personajes, objetos y fondos para conseguir resultados bastante llamativos. Está pensada tanto para conversaciones informales (memes, imágenes graciosas) como para presentaciones o trabajos que necesitan un toque gráfico.
Si usas un iPad con Apple Pencil, la Varita Gráfica (Image Wand) es especialmente interesante. Puedes hacer un boceto rápido o un garabato, rodearlo con un círculo y dejar que Apple Intelligence lo transforme en una imagen final más pulida. Es una forma muy natural de pasar de una idea dibujada a una ilustración terminada sin salir de la app.
Genmoji es otra de las funciones estrella: permite crear emojis personalizados a partir de descripciones de texto o incluso de personas concretas. Si siempre has echado de menos “ese emoji que te falta”, ahora puedes describirlo (“una cara con rodajas de pepino en los ojos”, por ejemplo) y Apple Intelligence generará varias opciones para que elijas. También puedes crear genmojis inspirados en amigos o familiares para usarlos en tus chats.
Además, la integración de ChatGPT con Image Playground amplía todavía más las posibilidades creativas. En iOS 26, la app puede combinar el motor de Apple con la generación de imágenes de ChatGPT, de manera que tienes dos enfoques en una misma herramienta sin tener que saltar entre servicios distintos.
Fotos, edición inteligente y recuerdos personalizados
La app Fotos es una de las que más se beneficia de Apple Intelligence, tanto en la búsqueda como en la edición y en la creación de recuerdos en vídeo. El objetivo es que encuentres antes lo que buscas y que puedas mejorar tus imágenes sin complicarte con herramientas avanzadas; si te interesa la edición de vídeo, Apple Intelligence facilita flujos más sencillos.
En cuanto a búsqueda, ahora puedes usar lenguaje natural para encontrar fotos muy concretas. En vez de navegar por álbumes, le puedes pedir algo como “fotos de mi amiga María con camiseta roja” y el sistema rastrea tu biblioteca para localizar justo esas imágenes. Apple Intelligence entiende personas, objetos, ropa e incluso el contexto de la escena.
En edición, destaca la herramienta Limpiar (el equivalente al “borrador mágico”). Sirve para eliminar elementos no deseados de una foto: una persona de fondo, una farola que arruina el encuadre, un objeto que no pega con la escena… Basta con seleccionarlo y Apple Intelligence se encarga de reconstruir el fondo de forma bastante natural para que parezca que nunca estuvo ahí.
También hay mejoras en la parte de recuerdos: Apple Intelligence puede crear vídeos de recuerdo que sigan una especie de “historia” basada en tus fotos y vídeos. Entiende qué ha pasado en un día o un evento, ordena el material de forma coherente y genera un montaje que se puede personalizar. Incluso puedes escribir lo que quieres ver (“fin de semana en la playa con los niños”) y dejar que seleccione el contenido adecuado.
Todo esto se combina con las capacidades de búsqueda visual y con Siri, de manera que puedas pedir directamente que te enseñe cierto tipo de recuerdos o que localice una imagen muy específica sin bucear manualmente por tu carrete eterno de fotos.
Visual Intelligence: buscar con la cámara y en lo que ves en pantalla
La inteligencia visual de Apple Intelligence es una de las funciones más potentes para el día a día. Básicamente, convierte la cámara y la pantalla en puntos de partida para obtener información y realizar acciones sin tener que copiar y pegar datos entre apps.
Con la cámara del iPhone, puedes apuntar a un monumento, un cartel, una planta, un animal o cualquier objeto y pedirle más información. El sistema identifica lo que se ve y propone acciones contextuales: saber qué lugar es, crear un evento de calendario a partir de un póster, buscar ese producto en internet, traducir un menú de restaurante, etc.
La inteligencia visual no se limita a lo que tienes delante físicamente: también funciona con lo que aparece en tu pantalla. Puedes hacer una captura y, en lugar de guardarla sin más, se abre una interfaz donde puedes marcar texto, objetos o personas para que Apple Intelligence los reconozca. Desde ahí, puedes resumir un texto, traducirlo, buscar más información en la web o generar acciones como añadir un recordatorio.
En los iPhone que tienen Botón de Acción, puedes configurarlo desde Ajustes > Botón de Acción para lanzar directamente la Inteligencia Visual. Así, con una pulsación prolongada accedes de inmediato al análisis visual sin pasar por menús intermedios. También hay modelos con un control de cámara específico que activa estas funciones de forma rápida.
La inteligencia visual se integra incluso con la opción de Preguntar a ChatGPT para preguntas más abiertas sobre el contenido de la pantalla. Si lo permites, puedes enviar una imagen o una captura al modelo de OpenAI para obtener explicaciones más detalladas, recetas basadas en lo que se ve en una foto o análisis más sofisticados.
Traducción en tiempo real: Mensajes, FaceTime, Teléfono y AirPods
Apple Intelligence rompe muchas barreras de idioma gracias a Live Translation, la traducción en tiempo real integrada en varias apps clave. La idea es que puedas hablar o escribir en tu idioma y que la otra persona te entienda en el suyo sin que tengas que cambiar de app ni copiar textos a un traductor aparte.
En la app Mensajes, puedes traducir automáticamente los mensajes que envías o recibes. Mientras escribes, el sistema te muestra la traducción debajo del texto original para que puedas revisar antes de enviarlo; el destinatario lo verá ya traducido en su idioma. Para activar la traducción en un mensaje concreto, puedes hacer una pulsación prolongada sobre el mensaje.
En FaceTime, aparecen subtítulos en tiempo real de lo que dice la otra persona. De esta forma, puedes seguir una videollamada con alguien que hable otro idioma y leer lo que dice en tu lengua sin perder el ritmo de la conversación. Los subtítulos se superponen directamente sobre el vídeo.
En las llamadas de la app Teléfono, la traducción se vuelve aún más interesante: tú ves por escrito en tu idioma lo que te están diciendo, y tu voz se traduce y se reproduce para la otra persona en su propio idioma. Es como tener un intérprete permanente en el bolsillo, gestionado directamente por Apple Intelligence.
Además, en iOS existe la opción de usar la traducción en tiempo real con los AirPods, de manera que el audio traducido llegue directamente a tus auriculares. Esto hace que viajar o trabajar con personas de otros países sea mucho más cómodo, sin tener que ir mirando la pantalla continuamente.
Notificaciones, Mail y modo de concentración inteligente
Apple Intelligence también cambia la forma en la que gestionas la avalancha de notificaciones y correos que recibes cada día. El objetivo aquí es reducir el ruido y destacar lo realmente importante para que no se pierda entre promociones y avisos irrelevantes.
El modo de concentración “Reducir interrupciones” aprovecha Apple Intelligence para entender el contenido de tus notificaciones y decidir cuáles deben interrumpirte y cuáles pueden esperar. Un mensaje de publicidad se queda más abajo o se agrupa, mientras que una alerta relacionada con salud, un paquete urgente o un mensaje crítico se muestra en primer plano.
En la app Mail, la bandeja de entrada se vuelve mucho más inteligente. El sistema detecta qué correos son prioritarios (por ejemplo, un mail con el check‑in de un vuelo) y les da más visibilidad que a una newsletter de una tienda. Además, puede sugerir respuestas rápidas basadas en las preguntas que encuentres dentro de un correo, y ayudarte a redactar mensajes con las herramientas de escritura.
Las respuestas inteligentes y los resúmenes también llegan a las apps Mail y Mensajes. Puedes pedir un resumen de una conversación larga o de un hilo interminable de correos y obtener los puntos clave en unos segundos. Lo mismo se aplica a las transcripciones de notas de voz y mensajes de buzón: Apple Intelligence puede generar resúmenes que condensan lo importante sin que tengas que escuchar todo el audio.
En iOS y iPadOS, las notificaciones pueden agruparse automáticamente y mostrarte un resumen en lugar de enseñarte cada aviso por separado. Esta función ayuda mucho a reducir la sensación de “bombardeo” constante y te permite revisar todo de golpe en momentos más tranquilos.
Siri renovada y su integración con ChatGPT
Siri ha pegado un salto enorme gracias a Apple Intelligence, tanto en diseño como en capacidades. Deja de ser un asistente rígido y limitado y pasa a ser una interfaz más flexible, que entiende mejor el contexto y admite errores y correcciones sobre la marcha.
Visualmente, la vieja esfera animada desaparece y Siri pasa a ocupar los bordes de la pantalla con una animación envolvente. Esto deja más espacio para el contenido y hace que la conversación se vea más integrada con lo que estás haciendo. Si en algún momento no te apetece hablar, puedes hacer un doble toque en la parte inferior de la pantalla para que aparezca un teclado y escribir tu petición.
A nivel funcional, Siri entiende mejor las peticiones encadenadas, los cambios de opinión y las referencias al contexto. Puedes equivocarte, rectificar o añadir matices sin tener que repetir toda la frase desde cero. Además, tiene más conocimiento de producto y de tu dispositivo, y puede gestionar acciones en apps de manera más natural.
La gran novedad es la integración opcional con ChatGPT en Siri, Herramientas de Escritura, Image Playground y Visual Intelligence. Cuando haces una pregunta especialmente abierta, pides ideas creativas o necesitas analizar una foto o un documento complejo, Siri puede sugerirte usar ChatGPT. Si aceptas, se envía la información necesaria y se obtiene una respuesta más rica, todo ello con avisos claros para que sepas cuándo se está usando el modelo de OpenAI.
Si prefieres no usar ChatGPT, puedes desactivar su integración desde Ajustes. Apple ha diseñado esta conexión para que sea transparente e independiente: siempre que se requiera su uso, se te pedirá permiso, no se decide “por detrás” sin que te enteres.
Automatizaciones, Atajos y otras funciones avanzadas
Apple Intelligence no solo sirve para generar contenido, también potencia la parte más automatizada y productiva del sistema. Aquí entran en juego las acciones inteligentes, la integración con Atajos y funciones como Workout Buddy.
En la app Atajos, puedes usar directamente los modelos de Apple Intelligence como pasos dentro de un flujo de automatización. Por ejemplo, podrías crear un atajo que tome el contenido de un correo, lo resuma y lo añada como tarea a Recordatorios, o que genere un texto a partir de unas palabras clave y lo envíe por Mensajes a un contacto concreto.
Las acciones inteligentes en Atajos facilitan construir automatizaciones complejas sin saber programar. Añadir resúmenes, traducciones, clasificaciones automáticas o generadores de texto dentro de tus flujos te abre muchas posibilidades para reducir trabajo repetitivo en tu día a día.
Apple Intelligence también impulsa funciones como Workout Buddy en iOS y watchOS (por ahora con contenido en inglés), que puede ofrecerte sesiones guiadas y recomendaciones personalizadas para entrenar. Se apoya en los datos de Salud y Actividad para darte indicaciones más ajustadas a tu nivel y tu progreso.
En la app Recordatorios, el sistema puede sugerir recordatorios y categorizarlos automáticamente, y en Cartera se mejora el seguimiento de pedidos (por ahora en inglés y en algunas regiones) gracias al análisis inteligente de la información de los correos y notificaciones relacionados con compras.
Con todo este conjunto de funciones —desde la escritura inteligente y la traducción en tiempo real hasta la edición de fotos, la nueva Siri y la inteligencia visual— Apple Intelligence se posiciona como la gran apuesta de Apple para que sus dispositivos sean de verdad más útiles, más personales y más privados; el reto ahora es que los usuarios descubran todo este potencial y que Apple siga cumpliendo su promesa de una IA potente que, a diferencia de otras propuestas del mercado, no se construya a costa de tu privacidad.

