Apple presenta una IA que se ejecuta desde el teléfono

Comparte esta noticia:
Apple presenta una IA que se ejecuta desde el teléfono

Apple ha introducido OpenELM, una gama de Modelos de Lenguaje de Eficiencia (ELM) que se ejecutan directamente en dispositivos, lo que marca un avance significativo hacia la privacidad y la velocidad en el procesamiento de datos de IA. Estos modelos son parte de una estrategia más amplia que incluye modelos como ReALM y MM1, optimizados para funcionar localmente en iOS y iPadOS 18, y están diseñados para mejorar significativamente la funcionalidad de aplicaciones nativas como Siri, Apple Music y Safari, al igual que otras herramientas en la suite iWork.

OpenELM se ha lanzado en la comunidad Hugging Face Hub, enfocándose en la accesibilidad y colaboración en código abierto, permitiendo que Apple continúe avanzando hacia un ecosistema de dispositivos donde la mayoría de las funciones de IA se procesan de manera local, independiente de servidores externos. Esto no solo mejora la privacidad y la velocidad, sino que también reduce la latencia y los riesgos asociados al procesamiento en la nube.

Este enfoque de Apple contrasta con la dependencia de la nube de otros modelos de IA y coloca a la compañía en una posición favorable para competir en el mercado de asistentes inteligentes y otras aplicaciones de IA integradas. Se espera que estas innovaciones se integren completamente en iOS 18, prometiendo transformar Siri en el asistente que los usuarios han estado esperando, además de enriquecer la experiencia general del usuario en el ecosistema de Apple.

Apple lanza OpenELM, modelos de IA ejecutados localmente, asegurando privacidad y agilidad. OpenELM y otros modelos similares prometen revolucionar funciones en iOS y iPadOS 18, mejorando asistentes como Siri y aplicaciones como Apple Music y Safari.

*** Imagen y texto resumido del artículo original publicado en La Vanguardia***

. . . .

Comparte esta noticia:
Scroll al inicio