¿Imaginas hablar por FaceTime con alguien que no habla tu idioma y entenderlo todo al instante? Eso es justo lo que Apple quiere hacer posible con Apple Intelligence, su nueva apuesta en inteligencia artificial. En su evento WWDC desde Cupertino, la compañía presentó una herramienta de traducción en vivo que llegará con iOS 26.
La función, que estará integrada directamente en Mensajes, FaceTime y el teléfono, permitirá traducir conversaciones en tiempo real mediante subtítulos visibles durante la interacción.
«La traducción en vivo puede traducir conversaciones al instante. Está integrada en nuestras aplicaciones clave y se ejecuta en el propio dispositivo gracias a modelos desarrollados por Apple», ha explicado un portavoz de la compañía.
Durante la presentación, Apple mostró un vídeo en el que dos personas hablaban en francés e inglés a través de FaceTime, mientras los subtítulos iban apareciendo en pantalla.
Compatible con llamadas a usuarios sin iPhone
Una de las claves de esta innovación es su capacidad de funcionar también en llamadas con personas que no utilizan dispositivos Apple, lo que refuerza su utilidad global y rompe la habitual exclusividad de su ecosistema.
Apple subrayó que la función no depende de servidores externos, ya que su sistema de IA se ejecuta en el propio terminal, lo que refuerza la privacidad y la eficiencia energética.
La tecnología de traducción no se limita a las llamadas. Apple también la aplicará a Apple Music, donde incorporará la traducción de letras de canciones y su pronunciación, para que cualquier usuario «pueda cantar sin importar el idioma».
Este movimiento refuerza el posicionamiento de Apple en el terreno de la IA integrada, centrada en experiencias cotidianas, privacidad y procesamiento local.