La llegada de la IA a los dispositivos iOS de Apple está generando reacciones, y la más importante para el sector de las telecomunicaciones es saber qué piensan los operadores. No hemos tenido que esperar mucho para tener la reacción de uno de los CTOs más importantes, Bruno Zerbib, Director de Tecnología e Innovación en Orange, quien no se ha podido resistir y ha comentado en su cuenta de LinkedIn sus impresiones sobre el anuncio de la empresa de la manzana.
Según Zerbib, la reciente conferencia WWDC de Apple ha dejado varias impresiones. En su opinión, Apple empieza a parecer menos como el Apple de siempre. Zerbib destaca que la estrategia habitual de Apple de “prometer poco y entregar más” parece estar cambiando. Esta vez, están anunciando un futuro vago con muchas características aún no disponibles, incluyendo Siri potenciada por OpenAI junto con su propio desarrollo interno de IA, llamado Apple Intelligence.
Zerbib cree que, a diferencia de nombres llamativos como Gemini, Siri seguirá en funcionamiento sin jubilarse. Sin embargo, según Zerbib, la voz de Siri no ha cambiado y ahora parece menos elegante, ya que otros modelos de lenguaje han logrado incorporar más emociones en sus asistentes. Tal vez sea necesario para que la voz de Siri pueda funcionar directamente en el dispositivo.
Zerbib opina que Apple está hablando de un futuro ilimitado, pero solo ha mostrado capacidades básicas de Modelos de Acción Amplios (LAM) que no impresionan mucho en comparación con Gemini o GalaxyAI. No obstante, cree que tomará tiempo integrar estos modelos con el ecosistema de aplicaciones.
A pesar de todo, Zerbib aún confía en la genialidad de la ingeniería de Apple y ha notado algo interesante y crítico para el futuro de la IA. Según Zerbib, Apple está empezando a desarrollar una capa de orquestación entre los modelos de lenguaje. Apple explicó que muchas tareas se realizarán directamente en el dispositivo, lo cual es positivo para la privacidad y el consumo de energía. Además, podrán evaluar dinámicamente la complejidad de las solicitudes y enviar las partes que no puedan ser procesadas localmente a la nube.
Zerbib considera que esta es una promesa que podría ser el futuro de la IA: análisis dinámico de la complejidad de las solicitudes y determinación en tiempo real del lugar de inferencia. Para él, esta es la única manera de escalar la IA de manera responsable, aunque esto implicará una colaboración transparente entre múltiples proveedores de modelos de lenguaje, planteando desafíos sobre qué datos se compartirán y dónde se almacenarán.
Zerbib se pregunta si será posible para un usuario pedir a Apple que use Gemini en lugar de ChatGPT para inferencias fuera del dispositivo. De ser así, esto significaría que Apple tendría su propio espacio con Gemini y ChatGPT, garantizando que los datos no contribuyan al próximo ciclo de entrenamiento de esos modelos. Aunque el modelo de tenencia es seguro, implica que los datos saldrán de iCloud y se almacenarán en una nube de terceros, como Google Cloud o Microsoft Azure.
Finalmente, Zerbib anima a todos a conocer lo más posible sobre estas arquitecturas para entender los riesgos que crean en términos de privacidad de datos, comportamientos monopolísticos y, no menos importante, el impacto en nuestro medio ambiente.