Más allá de la CPU o GPU: por qué la inteligencia artificial a escala empresarial necesita un enfoque más holístico

La industria se reúne en la conferencia Intel AI DevCon; actualizaciones en el portafolio de IA (Inteligencia Aartificial por sus siglas) de Intel y el procesador de redes neuronales Intel Nervana

Por Naveen Rao

Es muy grato para nosotros haber reunido a algunas de las mentes más brillantes que trabajan con inteligencia artificial (IA) en la Intel AI DevCon, nuestra conferencia inaugural para desarrolladores de IA. Reconocemos que cumplir con la promesa de la inteligencia artificial no es algo que podamos hacer solos en Intel. Más bien, necesitamos abordarlos conjuntamente como industria, incluyendo a la comunidad de desarrolladores, la academia, el ecosistema del software y más.

Por eso, cuando subí al estrado, me sentí muy emocionado de hacerlo junto con muchos otros miembros de la industria, incluyendo a los desarrolladores que estuvieron con nosotros para las demostraciones e investigaciones. También nos acompañaron aliados como Google*, AWS*, Microsoft*, Novartis* y C3 IoT*. Esta amplia colaboración es la que nos va a ayudar a que juntos empoderemos a la comunidad para que brinde el hardware y software necesarios para innovar con más rapidez y permanecer alertas en los diferentes caminos hacia la inteligencia artificial.

Kit de prensa: AI DevCon 2018

De hecho, lo que nos ayudará a acelerar la transición al futuro de la informática basada en la inteligencia artificial, es garantizar que brindemos soluciones que sean tanto integrales como a escala empresarial. Me refiero a soluciones que ofrezcan la variedad más amplia de cómputo, con múltiples arquitecturas que admitan de milivatios a kilovatios.

La IA a escala empresarial también significa adoptar y ampliar las herramientas, marcos e infraestructura en las que ya invirtió la industria para permitir a los investigadores llevar a cabo tareas en una variedad de cargas de trabajo de inteligencia artificial de una mejor manera. Por ejemplo, los desarrolladores de IA están cada vez más interesados en programar directamente a marcos de código abierto en comparación con una plataforma de software de productos específicos, lo cual también permite que el desarrollo se produzca con mayor velocidad y eficiencia.

Hoy, nuestros anuncios cubrirán todas estas áreas, junto con varias nuevas asociaciones que ayudarán a que los desarrolladores y nuestros clientes cosechen los beneficios de la IA aún más rápido.

Expandiendo el portafolio de IA para abordar la diversidad de las cargas de trabajo de inteligencia artificial

Gracias a una encuesta reciente de Intel, supimos que más del 50% de nuestros clientes empresariales de Estados Unidos, están recurriendo a las soluciones existentes basadas en la nube, alimentadas por los procesadores Intel® Xeon®, para sus necesidades iniciales de inteligencia artificial. Lo anterior reafirma el enfoque de Intel de ofrecer una amplia gama de productos a escala empresarial – incluyendo los procesadores Intel Xeon, las tecnologías Intel® Nervana™ e Intel® Movidius™ y las Intel® FPGA – para abordar los requisitos únicos de las cargas de trabajo de IA.

Las optimizaciones de los procesadores Intel Xeon Scalable es una de las actualizaciones importantes que estamos tratando el día de hoy. Estas optimizaciones brindan mejoras de desempeño importantes tanto en la capacitación como en la inferencia, en comparación con generaciones anteriores, lo cual es benéfico para muchas compañías que quieren utilizar la infraestructura existente de la que ya son propietarias, para obtener los beneficios relacionados del costo total de propiedad a lo largo de sus primeros pasos hacia la inteligencia artificial.

También estamos proporcionando varias actualizaciones en nuestra familia más nueva de procesadores de redes neuronales Intel® Nervana™. El procesador de redes neuronales (NNP por sus siglas en inglés) Intel Nervana tiene un objetivo de diseño explícito para lograr un alto aprovechamiento del cómputo y admitir un verdadero modelo de paralelismo con interconexiones multichip. En nuestra industria, se habla mucho del desempeño teórico máximo o de números TOP/s; sin embargo, la realidad es que mucho de ese cómputo es insignificante, a menos que la arquitectura tenga un subsistema de memoria capaz de admitir el alto aprovechamiento de esos elementos de cómputo. Asimismo, gran parte de los datos de desempeño publicados de la industria, emplean grandes matrices cuadradas que por lo general no se encuentra en las redes neuronales del mundo real.

En Intel, nos centramos en crear una arquitectura balanceada para las redes neuronales, que también comprende gran ancho de banda de chip a chip, con baja latencia. Las referencias de desempeño iniciales en nuestra familia de procesadores de redes neuronales muestran importantes resultados competitivos tanto en el aprovechamiento como en la interconexión. Los aspectos concretos comprenden:

Las operaciones de matriz general a multiplicación de matrices (GEMM) usando tamaños de matriz A (1536, 2048) y B(2048, 1536) han alcanzado más del 96.4% en aprovechamiento de cómputo en un solo chip1. Lo anterior representa cerca de 38 TOP/s de desempeño real (no teórico) en un solo chip1. Las operaciones GEMM distribuidas multichip, que admiten la capacitación de modelo paralelo están realizando un escalamiento casi lineal y 96.2% de eficiencia2 de escalamiento para los tamaños de matriz A (6144, 2048) y B(2048, 1536) – permitiendo que muchos procesadores de redes neuronales se conecten y liberándonos de limitaciones de memoria de otras arquitecturas.

Estamos midiendo el 89.4% de eficiencia3 unidireccional de chip a chip de ancho de banda teórico, a menos de 790ns (nanosegundos) de latencia y se emocionan al aplicarlo a los 2.4Tb/s (terabits por segundo) de interconexiones de baja latencia y gran ancho de banda.

Todo esto sucede en un solo envolvente de potencia total de un solo chip de menos de 210 watts. Y éste es solo el prototipo de nuestro procesador de redes neuronales Nervana (Lake Crest), del que estamos recopilando comentarios de nuestros primeros socios.

Estamos avanzando hacia la primera oferta comercial del procesador de redes neuronales, Intel Nervana NNP-L1000 (Spring Crest), en 2019. Esperamos que Intel Nervana NNP-L1000 alcance un desempeño de capacitación de 3 a 4 veces mayor al desempeño de capacitación de nuestro producto Lake Crest de primera generación. También soportamos bfloat16, formato numérico que está siendo adoptado por la industria para redes neuronales, en el Intel Nervana NNP-L1000. Con el tiempo, Intel ampliará el soporte bfloat16 a toda nuestra línea de productos de IA, incluyendo los procesadores Intel Xeon y los dispositivos Intel FPGA. Es parte de una estrategia cohesiva e integral para llevar capacidades líderes de capacitación en IA a nuestra cartera de silicio.

Inteligencia artificial para el mundo real

La amplitud de nuestra cartera ha facilitado a las organizaciones de todos tamaños que empiecen su jornada de inteligencia artificial con Intel. Por ejemplo, Intel está colaborando con Novartis en el uso de redes neuronales profundas, para acelerar la selección de alto contenido – un elemento clave del descubrimiento precoz de fármacos. El equipo de colaboración reduce el tiempo para capacitar a modelos de análisis de imágenes de 11 horas a 31 minutos – una mejora superior a 20 veces4.

Para acelerar el éxito del cliente con el desarrollo de aplicaciones de IA y de IoT, Intel y C3 IoT anunciaron una colaboración que presenta una solución de software y hardware de IA: un dispositivo de inteligencia artificial C3 IoT alimentado por la IA de Intel.

Asimismo, trabajamos para integrar marcos de aprendizaje profundo como TensorFlow*, MXNet*, Paddle Paddle*, CNTK* y ONNX* en nGraph, un compilador de modelos de red neuronal profunda (DNN) neutral con respecto al marco. Y anunciamos que nuestro Laboratorio de Inteligencia Artificial Intel usa un código abierto para la Biblioteca de Procesamiento de Lenguaje Natural para Python*, que ayuda a los investigadores a empezar su propio trabajo en algoritmos de procesamiento de lenguaje natural (NLP).

El futuro de la informática depende de nuestra capacidad colectiva para ofrecer soluciones – a escala empresarial – que las organizaciones puedan usar para aprovechar todo el poder de la inteligencia artificial. Estamos ansiosos por participar tanto con la comunidad como con nuestros clientes para desarrollar y desplegar esta tecnología transformacional y esperamos disfrutar de una experiencia increíble aquí en AI DevCon.

Naveen Rao es vicepresidente y gerente general del Grupo de Productos de Inteligencia Artificial en Intel Corporation.

Las pruebas documentan el desempeño de los componentes en una prueba en particular, en sistemas específicos. Consulte otras fuentes de información para evaluar el desempeño  que piensa adquirir. Para más información sobre el desempeño y los resultados de la comparación, visite www.intel.com/benchmarks.
Fuente: Mediciones de Intel en la edición limitada del Vehículo de Desarrollo de Software (SDV)
1 Operaciones de matriz general-multiplicación de matrices (GEMM); tamaños de matrices A (1536, 2048), B(2038, 1536)
2 Desempeño de la operación GEMM de dos chips en contraste con un solo chip; tamaños de matriz A (6144, 2048), B(2038, 1536)
3 Movimiento de datos MRB-CHIP MRB de chip completo usando enviar/recibir, tamaño del tensor = (1, 32), media en 50 mil iteraciones
4 Demanda de 20X con base en aceleración de  21.7X que se logra escalando de un sistema de un solo nodo a un clúster de  8 conexiones.
Configuración de nodo de clúster de 8 conexiones: CPU: procesador Intel® Xeon® 6148 @ 2.4GHz ; Núcleos: 40 ; Conexiones: 2 ; Tecnología Hyper-threading: Activado; Memoria/nodo: 192GB, 2666 MHz ; NIC: Interfaz Intel® Omni-Path Host Fabric (Intel® OP HFI); TensorFlow: v1.7.0 ; Horovod: 0.12.1 ; OpenMPI: 3.0.0 ; Clúster: Interruptor ToR: Interruptor Intel® Omni-Path
Configuración de un solo nodo: CPU: procesador Intel® Xeon® Phi 7290F; 192GB DDR4 RAM; 1x 1.6TB Intel® SSD DC S3610 Serie SC2BX016T4; 1x 480GB Intel® SSD DC S3520 Serie SC2BB480G7; Intel® MKL 2017/DAAL/Intel Caffe
Las características y beneficios de las tecnologías Intel dependen de la configuración del sistema y quizá requieran tener habilitada la activación del hardware, software o servicio. El rendimiento varía, dependiendo de la configuración del sistema. Ningún sistema de computación puede ser absolutamente seguro. Consulte al fabricante o vendedor de su sistema, o adquiera más información en Intel.com.
Intel no controla ni audita los datos de referencia de terceros ni los sitios de Internet que se mencionan en este documento. Debe visitar el sitio de Internet mencionado y confirmar si los datos de referencia son precisos.
Intel, el logotipo de Intel, Intel Nervana, Movidius y Xeon son marcas registradas de Intel Corporation o sus subsidiarias en Estados Unidos y/u otros países.

Acerca de Intel:

Intel (NASDAQ: INTC), líder de la industria de semiconductores, está formando el futuro basado en datos, con tecnología de computación y de comunicaciones, que es el fundamento de las innovaciones de todo el mundo. La experiencia en ingeniería de la compañía está ayudando a abordar los desafíos más grandes del mundo, así como también a proteger, alimentar y conectar miles de millones de dispositivos y la infraestructura del mundo inteligente y conectado – desde la nube hasta la red, al cómputo perimetral y todo lo que hay en medio. Conoce más sobre Intel visitando newsroom.intel.la e intel.la.

Intel y el logotipo de Intel son marcas registradas de Intel Corporation en los Estados Unidos y otros países.

*Otros nombres y marcas pueden ser propiedad de otros.