Según los informes, Apple está experimentando con IA generadora de lenguaje
3 min readCréditos de la imagen: Lauren DeCicca/Stringer/Getty Images
Si no fuera por el colapso del Silicon Valley Bank (SVB) de la semana pasada, casi todas las conversaciones sobre tecnología parecen centrarse en la IA y los chatbots. En los últimos días, OpenAI, respaldado por Microsoft, lanzó un nuevo modelo de lenguaje llamado GPT-4. Su competidor Anthropic lanzó el chatbot Claude. Google dijo que estaba integrando IA en sus herramientas Workspace como Gmail y Docs. Microsoft Bing ha llamado la atención sobre sí mismo con una búsqueda habilitada para chatbot. ¿El único nombre que falta en la acción? Manzana.
El mes pasado, la empresa con sede en Cupertino realizó un evento interno centrado en la IA y los grandes modelos de lenguaje. Según un informe de los New York Timesmuchos equipos, incluidas las personas que trabajan en Siri, prueban regularmente “conceptos de generación de lenguaje”.
La gente se ha estado quejando de que Siri no entiende las consultas (incluida la mía) durante mucho tiempo. Siri (y otros asistentes como Alexa y Google Assistant) no entendieron los diferentes acentos y fonéticas de las personas que viven en diferentes partes del mundo, incluso si hablan el mismo idioma.
La nueva fama de ChatGPT y la búsqueda de texto facilita que los usuarios interactúen con diferentes modelos de IA. Pero actualmente, la única forma de chatear con el asistente de inteligencia artificial de Apple, Siri, es habilitar una función en la configuración de Accesibilidad.
En una entrevista con el NYT, el exingeniero de Apple John Burke, que trabajó en Siri, dijo que el asistente de Apple había evolucionado lentamente debido al “código torpe”, que dificultaba la actualización de la funcionalidad básica. También mencionó que Siri tiene una gran base de datos con un montón de palabras. Entonces, cuando los ingenieros necesitaban agregar funciones o frases, la base de datos tenía que reconstruirse, un proceso que, según se informa, tomó hasta seis semanas.
El informe del NYT no dijo si Apple está construyendo sus propios modelos de lenguaje o quiere adoptar un modelo existente. Pero al igual que Google y Microsoft, la empresa liderada por Tim Cook no querría limitarse a ofrecer un chatbot potenciado por Siri. Apple se ha enorgullecido durante mucho tiempo de ser un aliado de artistas y creadores, uno esperaría que quisiera aplicar avances en modelos de lenguaje a estas áreas.
La compañía ha estado usando funciones impulsadas por IA desde hace un tiempo, incluso si no eran evidentes al principio. Esto incluye mejores sugerencias en el teclado, procesamiento en fotografía, desbloqueo de la máscara con Face ID, separación de objetos del fondo a través del sistema, lavado de manos y detección de colisiones en Apple Watch, y más recientemente la función de karaoke en Apple Music. Pero ninguno de ellos podría estar al frente como chatbots.
En general, Apple se ha mantenido callado sobre sus esfuerzos de IA. Pero en enero, la compañía lanzó un programa que ofrece a los autores servicios de narración de historias impulsados por IA para convertir sus libros en audiolibros. Esto indicaba que el fabricante del iPhone ya estaba pensando en casos de uso para la IA generativa. No me sorprendería si escucháramos más sobre los esfuerzos de la compañía en estas áreas en la Conferencia Mundial de Desarrolladores (WWDC) dentro de unos meses.
“Adicto a la televisión total. Experto en viajes. Gurú de Twitter. Evangelista de tocino. Creador galardonado. Aficionado al alcohol. Fanático de la música. Solucionador de problemas”.