Google, IBM, Otros tono estándar abierto para el servidor de la nube Diseño

Un grupo de gigantes de la tecnología de trabajo para montar un serio desafío a Intel en el centro de datos, tiene prevista una próxima estándar abierto para la interconexión de los componentes en un servidor que se está posicionando como una alternativa a la tecnología patentada de Intel.

ARTÍCULOS RELACIONADOS
loading...

El grupo incluye a Google, hardware proveedores de IBM, HP Enterprise, Dell EMC, así como sus rivales más directos de Intel AMD y NVIDIA, entre otros. Power9 procesadores próximos de IBM, que se espera lanzar el próximo año, serán compatibles con la norma y por lo tanto serán los servidores de IBM van a alimentar.

Intel actualmente domina el mercado de chips para servidores y operadores de centros de datos hiperescala como Google, que gastan enormes cantidades de dinero en hardware cada trimestre, quieren una alternativa viable. Han adoptado una estrategia general de múltiples proveedores para el aprovisionamiento de casi todos los componentes de su infraestructura, pero es difícil extender esta estrategia a los procesadores dado el tamaño de plomo de Intel en el mercado.

OpenCAPI y Power9 están dirigidos a la gama alta del mercado de servidores – equipos que se utilizan para la analítica de datos intensivos cargas de trabajo o de aprendizaje automático. El grupo afirma que la norma será capaz de impulsar el rendimiento del servidor por diez.

Eso mejora del rendimiento es el resultado de dos cosas: mayor ancho de banda en los enlaces entre las CPUs y los aceleradores y la coherencia de caché, que esencialmente significa que los datos que hay que barajan menos dentro del sistema, ya que se está procesando, el ahorro de recursos como resultado.

Aceleradores, o procesadores adicionales que asumen una parte de la carga de trabajo de la CPU para liberar sus recursos, han sido un pilar en el mundo de las supercomputadoras durante años, pero su papel está creciendo en importancia en la arquitectura de servidores de centros de datos cloud y para el rápidamente ámbito del aprendizaje de máquina emergente. “El modelo de computación en el futuro es el matrimonio entre un muy buen procesador centrado en los datos, como la energía, y un muy buen conjunto de tecnologías de aceleración,” Doug Balog, gerente general de IBM Power Systems, dijo en una entrevista con el Centro de Datos del Conocimiento.

La mayoría de los aceleradores en uso hoy en día son las GPU, hechos por los gustos de AMD y Nvidia, y algunos son Intel MIC de Intel, pero también ha habido un crecimiento en el uso de FPGAs o campo-matrices de puertas programables, como aceleradores. La ventaja de FPGAs es que pueden ser reconfiguradas como carga de trabajo necesita un cambio.

Intel ha invertido mucho en FPGAs año pasado, el pago de $ 16,7 mil millones para adquirir FPGA de Altera especialista. El usuario más prominente de FPGAs para acelerar las cargas de trabajo en la nube es Microsoft, cuya última generación nube de diseño de servidor compatible con la tecnología.

No está claro en este momento qué tipo de arquitectura dominará el mercado de hardware de la máquina-aprendizaje. Hay opiniones divergentes sobre esto hoy, con empresas como Nvidia servidores de apoyo de IA acelerados por la GPU Intel y diciendo que el modelo no es escalable , lanzando la próxima generación de sus procesadores Xeon Phi – nombre código caballeros del molino y se espera que llegue al mercado el año que viene – como la mejor alternativa.

servidores de la nube de Amazon para cargas de trabajo intensivas de datos, incluyendo el aprendizaje de máquina, se basan en las GPU, y lo mismo ocurre Big Sur, diseño de servidor de código abierto de Facebook para cargas de trabajo de AI.

Google ha diseñado su propia chips a medida para el aprendizaje de máquina , llamada Unidad de Procesamiento tensor. La compañía no ha revelado ningún detalle acerca de la arquitectura de TPU, se limitó a decir que se trata de un ASIC (circuito integrado específico) y que está optimizado para TensorFlow, su biblioteca de software de fuente abierta para la fabricación de aplicaciones de la IA.

Google también está trabajando en un diseño de servidor junto con Rackspace, que se ejecutará en procesadores Power9 de IBM y tienen la interfaz OpenCAPI. Las compañías lanzaron el primer borrador de la especificación del servidor Zaius , que planean contribuir al Open Compute Project, hoy.

El consorcio OpenCAPI tiene un reproductor de FPGA entre sus miembros, además de proveedores de servidores y GPU. Xilinx sede en San José planea apoyar FPGAs OpenCAPI habilitado, de acuerdo con el anuncio del viernes.

Estrategia acelerador de IBM ha sido el apoyo tan amplio una serie de opciones como sea posible. Su chip Power 8 de la generación actual apoya GPU interconexión NVLink la tecnología de NVIDIA , y también lo hará Power9, dijo Balog.