Comprender Apple Intelligence, el maravilloso modelo de Apple: así es como se compara con las IA y por qué usará ChatGPT

La IA de Apple no llegó como pensábamos. Cuando se filtró la colaboración con OpenAI pensamos que la empresa de Sam Altman iba a tener mucho más peso, pero al final no fue así. Apple Intelligence es un género de inteligencia sintética evolucionó completamente a través de Apple, sin relación con ChatGPT.

La alianza entre Apple y OpenAI es oficial, pero estamos ante dos proyectos separados. Por un lado, Apple Intelligence y Siri y, por otro, la incorporación de ChatGPT. Aquí vemos lo que ha desarrollado Apple, cómo es el papel de OpenAI y cómo Apple Intelligence se está posicionando en esta guerra de la inteligencia sintética donde el corporativo de Cupertino ya se está involucrando con sus propias armas.

Durante la presentación de Apple Intelligence se dieron a conocer sus características, que se incorporarían a iOS 18, iPadOS 18 y macOS Sequoia y que tendría una edición «on-device» y una edición conectada a la nube, pero de forma privada con lo que llamaron » Private Cloud Compute». Pero no dieron ningún detalle técnico sobre el diseño de IA.

Afortunadamente, el equipo de estudios de aprendizaje de dispositivos de Apple ha publicado un pequeño informe sobre el conocimiento técnico del estilo de lenguaje (LLM) que impulsa la Inteligencia de Apple. Aquí repasamos sus principales características, que nos harán comprender mejor hasta qué punto la IA de Apple nos presentó en Pasa la WWDC 2024.

Apple Intelligence es una colección de varios modelos de IA que se especializan en las «responsabilidades de los usuarios». Estos modelos se han ajustado para sobresalir en responsabilidades como escribir, sintetizar, crear imágenes y simplificar las interacciones entre aplicaciones. Es decir, el máximo de responsabilidades. que podemos hacer desde Siri en el iPhone.

Como lo describe Apple, su estilo de IA tiene alrededor de 3 mil millones de parámetros para la edición en el dispositivo y un estilo aún mayor que se ejecuta en servidores de Apple alimentados por chips de silicio de Apple y energía renovable. Es decir, un estilo de IA «en el dispositivo» y en servidores de Apple.

Apple últimamente está reservando esos dos modelos de IA, pero explica que pronto ofrecerá nuevos modelos.

Comparado con su rival directo, Apple Intelligence se sitúa prácticamente en el mismo punto que Gemini Nano. Mientras que el de Apple ofrece 3. 000 millones de configuraciones, el Gemini Nano de Google ofrece dos versiones, una con 1. 800 millones para gadgets con poca RAM y con 3. 250 millones de configuraciones, para Pixel y otros dispositivos Android de alta gama.

Para ejercer su modelo, dependen de Apple AXLearn, una tarea de código abierto que comenzó en 2023. Respecto al contenido utilizado para crear este modelo, Apple explica que utilizó datos autorizados, así como contenido disponible públicamente, recopilados a través de su rastreador de Internet. AppleBot.

Apple enfatiza que nunca utilizan el conocimiento personal de los usuarios o sus interacciones para crear este estilo de IA y que aplican filtros para eliminar personalmente cualquier dato que pueda identificar a los usuarios y que esté en Internet. Los otros filtros implementados están destinados a eliminar datos de bajo nivel. o duplicar conocimiento. Y finalmente, que las páginas de Internet que no necesitan que su contenido sea utilizado para Apple Intelligence tienen la opción de solicitarlo. Son argumentos que hemos notado repetidos muchas veces, que nos dicen que para crear su IA, Apple ha seguido la receta clásica.

La educación en IA también tiene su respectiva optimización. Apple explica aquí que ha reducido el uso de la memoria. La edición «on-device» tiene un vocabulario de 49 KB, mientras que el estilo de servidor tiene cien KB. En comparación, Gemini Nano tiene un límite de token de 32 KB.

Como explicamos inicialmente, el estilo Apple ha sido entrenado para desempeñar responsabilidades expresas. Apple los define como “adaptadores”. Un conjunto de ajustes exprés a las responsabilidades que deben desempeñar. Por ejemplo, a nivel abstracto, Apple utiliza 750 preguntas exprés para evaluar si la respuesta es correcta. Entre las responsabilidades a las que implementaron más cuadros se encuentran las de «lluvia de ideas». , clasificación, respuesta a preguntas cerradas, programación, extracción, razonamiento matemático, respuesta a preguntas abiertas, reescritura, seguridad, resumen y redacción».

Apple presenta varios puntos de referencia comparando con algunos de los principales modelos de IA del momento. En el modelo de IA integrada del dispositivo, se trata del Phi-3 mini de Microsoft, el Mistral 7-B de Google y el Gemma 7-B. Mientras que en el modelo de servidor, es para GPT-4 Turbo y Mistral 8x22B.

Según el punto de referencia IFEval, que mide la capacidad de la IA para seguir instrucciones, los modelos de Apple Intelligence están a la par e incluso superan a los modelos de tamaño de código abierto y publicidad.

También enseñan varios puntos de referencia para redacción y síntesis de texto, donde destaca la IA de Apple. Sin embargo, ninguno de los puntos de referencia seleccionados a través de Apple es genérico. Tendremos que esperar a las próximas pruebas para saber qué tan bien se las arregla la IA de Apple para competir con la modelos principales o sólo está a la altura de las responsabilidades para las que ha sido especialmente optimizado.

Apple ha seguido una estrategia de especialización de su IA, pero no hay atisbo de multimodalidad. Sí, tenemos texto y también voz, pero en ningún momento hay referencia al vídeo, como hace Google con Project Astra u OpenAI con GPT-4o. Es una pena, porque los Apple Vision Pros a largo plazo pueden resultar muy útiles.

La promesa de Apple Intelligence es que los propósitos de IA se ejecutan en el dispositivo y se procesan con el estilo de IA en el dispositivo. Pero cuando la tarea resulta demasiado compleja, se conectará a los servidores de Apple.

El propósito es que las máximas responsabilidades se realicen directamente en el iPhone, iPad o Mac. Para hacer esto, Apple requiere al menos un iPhone 15 Pro (con el A17 Pro) o un procesador M1 o superior. Cuando el procesador de Apple sea lo suficientemente resistente para la tarea que le pedimos a la IA, entra en acción el Private Cloud Compute. Algunos ejemplos son, por ejemplo, el análisis de símbolos, la síntesis de textos gigantes o la búsqueda de datos en Internet.

Como explica Apple, han creado una infraestructura en la nube exprés para IA. Prometen que es la «más segura y compleja jamás creada para IA en la nube». ¿Y qué hacen de manera diferente? Estas son algunas de las promesas explicadas a través de Apple.

Por ejemplo, el envío de datos está cifrado de extremo a extremo y, cuando esto no es posible, «se esfuerzan por procesar los datos del usuario de forma efímera o bajo identificadores aleatorios y no correlacionados que dificultan comprender la identidad del usuario».

Apple reconoce que la seguridad y la privacidad en la nube son difíciles de determinar y garantizar. Una vez que Private Cloud Compute esté disponible en versión beta para los desarrolladores, publicarán más detalles, pero por ahora prometen hacer cumplir algunos requisitos como «el conocimiento del usuario». posiblemente sólo se utilice para los fines solicitados a través del propio usuario» y que nada de este conocimiento será visible, «ni siquiera a través de los empleados de Apple».

En el punto de componente, Apple pretende que no se utilice ningún tipo de detalle externo por motivos de seguridad. Y en el caso de investigación de errores o métricas del servidor, optaremos por un punto máximo de privacidad.

El papel del personal de Apple es aplicable y ellos afirman que Private Cloud Compute no ofrecerá más permisos al personal para eludir las restricciones. Finalmente, Apple afirma que permitirá que cualquier investigador de seguridad verifique el funcionamiento de su infraestructura para asegurarse de que se cumplan las promesas. son respetados.

Como vemos, en ningún momento de Apple Intelligence interviene OpenAI. ¿Dónde está el pacto? A partir de finales de este año, ChatGPT se incorporará a Siri y herramientas de escritura.

Para algunas preguntas, Siri enviará la respuesta a ChatGPT y él nos responderá directamente. Esto significa que los usuarios de Siri tendrán acceso gratuito a ChatGPT, sin querer crear una nueva cuenta.

Hay un punto que Apple explicó pero no enseñó. Cuando necesitemos usar ChatGPT, Siri nos enviará una notificación para que aceptemos. Una vez que aceptemos este uso de ChatGPT, ingresamos otro campo. Una vez que tengamos que aceptar ChatGPT, nuestro El conocimiento se transferirá a los servidores OpenAI.

Sin embargo, Apple promete que las solicitudes se almacenarán a través de OpenAI y que las direcciones IP de los usuarios se ocultarán, en línea con la promesa de Private Cloud Compute. Esta fase del procesamiento del conocimiento es la que plantea el máximo de dudas en términos de confidencialidad.

La alianza con OpenAI no será excluyente. Craig Federighi, vicepresidente de ingeniería de Apple, explicó en la convención que en el futuro podrían añadirse nuevas fórmulas de IA a Siri, más allá de ChatGPT. Sin siquiera Google Gemini. Con esta decisión, Apple se guarda un as en la manga para localizar nuevos aliados ; continúa expandiendo tu propia IA; no ofrecer una fórmula cerrada a los reguladores y poder cubrir mercados donde ChatGPT no está disponible.

Este es el caso de China, un mercado al que Apple aspira y donde los iPhone son muy populares. Con esta estrategia de Apple Intelligence, Siri bien podría imitar los sistemas de IA de corporaciones como Baidu o incluso una IA estatal. Apple ha creado la suya propia modelo de IA, pero también ha abierto la puerta para que otras corporaciones tengan éxito donde no pueden.

ÀXataka | Intenté iOS 18 y estoy tan emocionado como confundido

Top Comentarios:

Ver reseñas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *