Apple y Google trabaja junto para el entrenamiento de IA

Banner

Apple ha hecho una importante aclaración respecto a su colaboración con Google en el entrenamiento de sus modelos de inteligencia artificial (IA). Aparte de OpenAI, Google también se perfila como un aliado clave en la carrera tecnológica de Apple para ponerse al día en este campo.

En un documento técnico recientemente publicado, Apple destacó que Google, perteneciente al conglomerado Alphabet, es otro ganador en la competencia por avanzar en IA. Esta colaboración ha sido crucial para Apple, especialmente en la implementación de su marco de software y hardware específico para desarrollar modelos de IA avanzados.

Para la creación de sus modelos de IA, los ingenieros de Apple utilizaron tanto sus propias unidades de procesamiento gráfico (GPU) como los chips especializados en inteligencia artificial de Google, conocidos como unidades de procesamiento tensorial (TPU), disponibles exclusivamente en la nube de Google. Estos TPUs han sido desarrollados por Google durante una década y ahora incluyen chips de quinta generación que ofrecen un rendimiento competitivo comparable con los chips de IA Nvidia H100, según la propia Google. Además, Google anunció en su conferencia anual de desarrolladores el próximo lanzamiento de una sexta generación de TPUs este año.

Estos procesadores de Google están diseñados específicamente para ejecutar aplicaciones de IA y entrenar modelos complejos, y Google ha desarrollado una plataforma integral de hardware y software de computación en la nube para soportar estos procesos. La colaboración con Google permite a Apple aprovechar esta plataforma avanzada para el desarrollo de sus modelos de IA.

Aunque Apple no ha detallado la medida exacta en la que depende de los chips y software de Google en comparación con otros proveedores como Nvidia, está claro que el uso de la tecnología de Google requiere que los clientes accedan a estos recursos a través de su división en la nube. Este modelo de negocio es similar a cómo los clientes adquieren tiempo de computación en la nube a través de servicios como AWS de Amazon o Azure de Microsoft.