Net4Cloud

0

Las nuevas TPU de Google están aquí para acelerar la capacitación de la IA

GoogleTPUGoogle ha dado otro salto hacia adelante en el reino del hardware para el aprendizaje de máquina. El gigante de la tecnología ha comenzado a desplegar la segunda versión de su Tensor Processing Unit (TPU), un chip especializado para acelerar las aplicaciones de aprendizaje de máquina, anunció el CEO de la compañía Sundar Pichai, el miércoles.

La nueva Cloud TPU ofrece varias mejoras respecto a su predecesor. En particular, soporta algoritmos de capacitación de aprendizaje de máquina además de procesar los resultados desde los modelos existentes. Cada chip puede proporcionar 180 teraflops de procesamiento para esas tareas. Google también puede colocar en red los chips en conjuntos de lo que se llaman TPU Pods que permitan incluso mayores ganancias computacionales.

Las empresas podrán utilizar los nuevos chips en la Cloud Platform de Google, aunque la compañía no ha proporcionado detalles exactos sobre la forma que tomarán estos servicios. Además, la compañía está lanzando una nueva TensorFlow Research Cloud que proporcionará a los investigadores acceso gratuito a ese hardware si se comprometen a lanzar públicamente los resultados de su investigación.

Es un movimiento que tiene el potencial de acelerar drásticamente el aprendizaje de máquina. Google afirma que su último modelo de traducción de máquina requiere de un día completo para entrenar en 32 de los GPUs modernos con mayor poder, mientras que un octavo de un TPU Pod puede hacer la misma tarea en una tarde.

El aprendizaje de máquina se ha vuelto cada vez más importante para la próxima generación de aplicaciones. Acelerar la creación de nuevos modelos significa que es más fácil para las empresas como Google experimentar con diferentes enfoques para encontrar los mejores para las aplicaciones particulares.

El nuevo hardware de Google también puede servir para atraer a nuevos clientes a su plataforma de nube, en un momento cuando la empresa está compitiendo contra Microsoft, Amazon y otros titanes de la tecnología. El anuncio de la Cloud TPU llega un año después de que Google diera a conocer por primera vez la Tensor Processing Unir en su conferencia para desarrolladores I/O.

Los algoritmos de programación que se ejecutan en las TPU requerirán del uso de TensorFlow, el marco de trabajo de aprendizaje de máquina de código abierto que se originó en Google. TensorFlow 1.2 incluye nuevas API de alto nivel que facilitan tomar sistemas construidos para ejecutarse en CPUs y GPUs y también ejecutarlos en TPUs. Los fabricantes de otros marcos de trabajo de aprendizaje de máquina como Caffe pueden hacer que sus herramientas funcionen con las TPU diseñándolas para llamar a las API de TensorFlow, de acuerdo al Google senior fellow, Jeff Dean.

Dean no dio detalles sobre cualquier métrica de desempeño concreta de la Cloud TPU, más allá de los potenciales teraflops de los chips. Una de las cosas que señala un reciente documento de investigación de Google es que diferentes algoritmos se desempeñan de forma diferente en el TPU original, y no está claro si la Cloud TPU se comporta de manera similar.

Blair Hanley Frank, IDG News Service

Ordenado por: Hardware Tags: 

Contenidos recomendados...

Comparta esta publicación

Artículos relacionados

Escriba su comentario

Ud. tiene que estar conectado para publicar comentarios.

Red de publicaciones IDG en Latinoamérica: Computerworld Ecuador - Computerworld Colombia - CIO Perú // Contáctenos
© 2017 Computerworld Venezuela - All rights reserved ---- WordPress - Tema adaptado por GiorgioB