Craig Federighi, de Apple, reconoce que su primer intento de una Siri con IA «no fue losuficientemente bueno»

Droids

Updated on:

El vicepresidente de software de Apple, Craig Federighi, ha admitido que los esfuerzos iniciales de la compañía para modernizar a Siri con inteligencia artificial generativa no cumplieron con sus estándares de calidad, lo que obligó a un rediseño completo que ha culminado en la recién presentada «Apple Intelligence».

La carrera por la supremacía en la inteligencia artificial ha estado marcada por los rápidos avances de empresas como OpenAI y Google. Mientras tanto, Apple mantenía un silencio que muchos interpretaron como un signo de haberse quedado atrás. Ahora, la compañía de Cupertino no solo ha presentado su propia visión, «Apple Intelligence», sino que también ha ofrecido una rara ventana a los desafíos internos que enfrentó en el camino.

En declaraciones recientes, Craig Federighi, vicepresidente sénior de Ingeniería de Software de Apple, ha confirmado que la empresa lleva tiempo trabajando en la integración de modelos de lenguaje grandes (LLM, por sus siglas en inglés) en su asistente virtual, pero el primer resultado no fue el esperado.

Un camino de ensayo y error hacia la inteligencia artificial

Durante una entrevista en el podcast «The Talk Show» con John Gruber, Federighi arrojó luz sobre el motivo del aparente retraso de Apple. «Empezamos a trabajar en un camino para usar modelos de lenguaje grandes para Siri hace ya algún tiempo», afirmó. «Francamente, la arquitectura inicial que construimos simplemente no era lo suficientemente buena«.

Según el directivo, los problemas eran fundamentales. «No era lo suficientemente rápida, no era lo suficientemente fiable y no cumplía con nuestros estándares de privacidad en el dispositivo», detalló. Este primer modelo se asemejaba más a las arquitecturas convencionales de IA basadas en la nube, un enfoque que Apple acabó descartando por sus inconvenientes. «La latencia era un problema. No puedes tener un asistente personal que tarda varios segundos en responder. Rompe la ilusión de inteligencia», explicó Federighi.

Esta admisión justifica por qué Apple decidió no lanzar su primera versión y esperar hasta tener un producto que considerara a la altura, a pesar de la creciente presión del mercado y la popularidad de herramientas como ChatGPT.

«Apple Intelligence»: la apuesta por la privacidad y la velocidad

La solución a estos problemas iniciales fue un cambio radical de estrategia, que dio lugar a «Apple Intelligence», el conjunto de funciones de IA que se integrará en iOS 18, iPadOS 18 y macOS Sequoia a finales de este año.

El «gran avance», según Federighi, fue darse cuenta del enorme potencial del procesamiento en el propio dispositivo. En lugar de depender exclusivamente de servidores remotos, Apple ha desarrollado modelos de IA más pequeños y eficientes que pueden ejecutarse directamente en los chips de sus iPhones, iPads y Macs. «Nuestro gran avance fue darnos cuenta de que podíamos hacer muchísimo en el dispositivo», comentó. Este enfoque tiene dos ventajas clave: una respuesta casi instantánea y, lo más importante para Apple, una privacidad férrea, ya que los datos personales del usuario nunca abandonan su dispositivo.

Para las tareas más complejas que requieren un mayor poder de cómputo, Apple ha creado «Private Cloud Compute». Federighi aseguró que estos servidores, equipados con chips de Apple, están diseñados con una arquitectura que impide que la propia compañía pueda ver o almacenar los datos de los usuarios. «Tus datos nunca se registran. Es una promesa», enfatizó. Como señala The Verge, este sistema híbrido es un diferenciador clave frente a competidores que dependen en mayor medida del procesamiento en la nube.

Una «inteligencia personal», no un simple chatbot

Más allá de la tecnología subyacente, la visión de Apple también se desmarca de la de sus rivales. John Giannandrea, jefe de Estrategia de IA y Aprendizaje Automático de Apple, aclaró que el objetivo nunca fue construir un «chatbot que pueda escribir poesía sobre un pirata», sino crear una «inteligencia personal profundamente integrada».

La clave de «Apple Intelligence» es su capacidad para entender el contexto personal del usuario de una manera segura. El sistema puede acceder y relacionar información de correos electrónicos, mensajes, calendarios, fotos y otras aplicaciones para ofrecer una asistencia verdaderamente útil. Por ejemplo, un usuario podrá pedirle a Siri: «Muéstrame los archivos que me envió Sarah la semana pasada sobre el proyecto de marketing». El sistema sabrá quién es Sarah, buscará en los correos y archivos recientes y presentará la información relevante, una tarea imposible para un chatbot genérico sin acceso a esa información personal.

La alianza con OpenAI: una puerta de entrada controlada

A pesar de la potencia de su propio sistema, Apple reconoce que hay consultas que requieren un conocimiento del mundo más amplio. Para esos casos, Siri ofrecerá la posibilidad de recurrir a modelos externos, comenzando con GPT-4o de OpenAI.

Federighi abordó la posible controversia sobre esta asociación, destacando las capas de protección para el usuario. «Queríamos dar a los usuarios acceso a lo mejor, pero con su privacidad bajo control», afirmó. La integración será totalmente opcional. Siri pedirá permiso al usuario cada vez que quiera consultar a ChatGPT, la dirección IP del usuario se mantendrá oculta y la consulta no se almacenará.

Este servicio será gratuito para los usuarios de Apple, sin necesidad de tener una cuenta de pago de ChatGPT. Con este movimiento, Apple busca ofrecer lo mejor de ambos mundos: una IA personal y privada para las tareas del día a día, y un acceso controlado y seguro a modelos más potentes cuando sea necesario.

Deja un comentario