Mario Romero.- Un reporte de Bloomberg señala que Apple diseñó una aplicación similar a ChatGPT para ayudar a sus ingenieros a probar la versión corregida y tan esperada de la nueva Siri, la cual solo se probará de manera interna y no habrá betas o acceso a testers.
Según se señala la aplicación se está utilizando para probar las nuevas funciones de Siri que Apple ha planeado, como una mayor conciencia contextual, la capacidad de hacer más dentro y entre aplicaciones, y una integración más profunda con los datos personales.
Cabe señalar que Apple ha estado trabajando en una versión más inteligente de Siri desde el lanzamiento de iOS 18, la cual en un comienzo, planeó estrenar un Apple Intelligence Siri como parte de la actualización, pero terminó retrasando la funcionalidad hasta 2026 porque (según la misma empresa) no cumplía con lo standards de Apple.
El plan Apple Intelligence Siri fue descartado, y Apple decidió revisar por completo Siri con arquitectura de segunda generación, acelerando una transición de LLM. La próxima versión de Siri que Apple planea lanzar utilizará modelos avanzados de lenguaje grandes como ChatGPT, Claude, Gemini y otros chatbots de IA.
LLM Siri podrá mantener conversaciones continuas, proporcionar respuestas humanas a preguntas y completar tareas más complejas.
Apple está en camino de lanzar la versión LLM de Siri (LLM es en español un modelo de Lenguaje Grande para tareas de IA) a principios de 2026, probablemente como parte de una actualización de iOS 26.4 que podría llegar en marzo.
Eso hará que Siri lo introdujera un año completo después de que Apple originalmente quisiera lanzar la versión actualizada del asistente personal.
Tenga en cuenta que para recién fines del año que viene Apple planea presentar un nuevo aspecto para Siri, dándole un diseño más humanoide que podría ser similar al logotipo del Finder de Mac (según las filtraciones)
Apple ha mantenido conversaciones con Anthropic, OpenAI y Google, y puede utilizar una empresa externa para impulsar la nueva versión de Siri en lugar de confiar en sus modelos internos de IA.