Parece ser que la inteligencia artificial va a ser la palabra de moda de este año. Aunque ya lleva calentando motores un tiempo dicha tecnología, en concreto Google ha estado trabajando en numerosos productos de procesamiento profundo desde el 2015. Pero sin dar muchos datos sobre su procesador hecho a medida.

tpu-board-790x475

En este caso se trata de un TPU (Tensor Processing Unit, y que cada uno traduzca como pueda) dedicado o hecho a medida para acelerar la inferencia de las redes neuronales. Mientras que el entrenamiento de estas redes se hace con números de 16 o 32 bits en coma flotante, para la inferencia sólo son necesarios 8 bits. Y aquí es donde Google ve el mercado ya que una operación de multiplicación en 8 bits requiere seis veces menos energía que una realizada en 16 bits. Y para una suma 16 veces.

Y aunque a nivel técnico el chip es bastante discreto, 28 nm y un ancho de banda de 34GB/s, posee un pico de 92 teraops/s en muy baja precisión pero muy útil para estos menesteres. A destacar también sus 24MB de memoria incluida en el propio chip. Su consumo es de 40W típico teniendo un TDP de 75W.

El objetivo es mantener los costes energéticos bajos y por tanto de eficiencia muy elevados, donde podemos ver en la siguiente gráfica como rinde, recalcamos para este tipo de operaciones, de 15 a 30 veces una GPU K80 o un procesador Haswell.

tpu-comparisons-benchmarked-servers-790x179

De todas formas NVIDIA con el Tesla P4 y P40 ha dado soporte para operaciones en 8 bits ya teniendo en cuenta la demanda del mercado y las diferencias seguramente sea cuando menos la mitad.

Pero por otro lado la compañía del buscador amenaza con una segunda generación con GDDR5, con nodo más actual y muchos más Mhz.

Fuente: https://www.top500.org/news/google-reveals-technical-specs-and-business-rationale-for-tpu-processor/