Apple ha compartido los detalles de dos de los modelos que impulsan su sistema de inteligencia artificial (IA) Apple Intelligence, el del servidor y el del dispositivo, con la vista puesta en su despliegue en los próximos meses.
Apple Intelligence, el sistema de capacidades impulsadas por IA destinadas a ofrecer una experiencia personal, privada e integrada en los servicios de los dispositivos de Apple, tiene en su base varios modelos fundacionales, que son los que permiten que realice las tareas en el día a día de las personas.
Aunque presentó la integración de la IA en sus dispositivos en junio, en el marco de su conferencia anual de desarrolladores, Apple ha detallado ahora en un documento técnico dos de esos modelos fundacionales y los principios por los que se guía para desarrollar una inteligencia artificial responsable.
Los dos modelos que ha detallado son, por un lado, el que se ejecuta en el propio dispositivo y presenta un tamaño de 3.000 millones de parámetros de lenguaje, y por otro, el que funciona en el servidor y ha sido diseñado para realizar tareas específicas “de manera precisa y responsable”. A ellos se les unen otros como uno específico de programación y un modelo de difusión para habilitar la expresión creativa en servicios como la ‘app’ Mensajes.
Se trata de modelos construidos con una arquitectura Transformer y en los que la compañía ha centrado sus esfuerzos en la fase de preentrenamiento, haciendo hincapié en la eficiencia y la calidad de los datos más que en su cantidad, procedentes de contenidos licenciados de editores, de bases curadas y disponibles de forma pública o de código abierto e información pública en internet recogida por su indexador Applebot.
En su documento técnico, Apple asegura que han seguido “una estricta política de datos que garantiza que no se incluyen datos de usuarios de Apple, además de realizar una revisión legal rigurosa de cada componente del corpus de capacitación”.
El entrenamiento ha sido diferente en cada uno de los modelos detallados: mientras que en el modelo de servidor esta fase se ha realizado desde cero con 6,3 billones de tokens y utilizando 8.192 chips TPUv4, en el modelo en local se ha apostado por las técnicas de destilación de conocimientos y poda estructural para mejorar el rendimiento y la eficiencia y utilizado 2.048 chips TPUv5p.
En la fase del postentrenamiento han optado por aplicar métodos que permitieran mejorar el seguimiento de instrucciones de uso general y la capacidad de conversación mediante el ajuste fino supervisado y el aprendizaje de refuerzo a partir de retroalimentación humana.
“Nuestros modelos se crearon con el propósito de ayudar a los usuarios a realizar actividades cotidianas en sus productos Apple, basados en los valores fundamentales de Apple y arraigados en nuestros principios de IA responsable en cada etapa”, dice la compañía.
UN SISTEMA PARA ENTENDER LAS NECESIDADES DE LOS USUARIOS
Durante la presentación de Apple Intelligence, la compañía dijo que puede comprender las acciones entre las aplicaciones, el lenguaje, así como crear imágenes o emojis personalizados con diferentes estilos, y aprende de la información que tiene de los usuarios y su contexto para comprender las necesidades de los usuarios.
Entonces, el vicepresidente sénior de Ingeniería de Software, Craigh Federighi, insistió en que todo este proceso se lleva a cabo de forma privada y se procesa de manera local, desde el mismo dispositivo, de modo que estos datos solo son accesibles para sus propietarios.
De manera complementaría, crearon Private Cloud Compute, que permite a Apple Intelligence escalar su capacidad computacional; si la potencia del dispositivo no es suficiente, lleva el procesamiento de la información a una nube privada, enviando únicamente la información relevante para ejecutar la tarea. Estos datos no se guardan ni son accesibles para la propia marca, aseguró.
El sistema de IA se ha introducido ahora en las betas de iOS 18.1 e iPadOS 18.1, dirigidas a iPhone 15 Pro, iPhone 15 Pro Max y iPad con chips de la familia Apple Silicon, donde ya prueba algunas de las funciones que impulsa, como la herramienta de escritura inteligente en Mail y Notas, los resúmenes de transcripciones y nuevas características para Fotos.
Gustavo Salas
Fuente de esta noticia: https://lavoz.digital/2024/07/30/apple-detalla-los-modelos-que-impulsan-apple-intelligence/
También estamos en Telegram como @prensamercosur, únete aquí: https://t.me/prensamercosur Mercosur
Recibe información al instante en tu celular. Únete al Canal del Diario Prensa Mercosur en WhatsApp a través del siguiente link: https://www.whatsapp.com/channel/0029VaNRx00ATRSnVrqEHu1W
- Los verdaderos terrores de Halloween - 31 de octubre de 2024
- Colombia advierte que sin actas no reconocerán a Maduro después del 10 de enero - 31 de octubre de 2024
- El Hospital Evangèlic de Barcelona inaugura su edificio como testigo de “la continuidad de una historia de compromiso y fe” - 31 de octubre de 2024