Serdar Yegulalp
Senior Writer

‘Machine Learning’ clave en la batalla del mercado de procesadores

Noticia
29 jun. 20172 minutos

El nuevo TensorRT de Nvidia acelera las predicciones de aprendizaje de la máquina y ofrece resultados con menor latencia, afirma la compañía.

También te puede interesar:

Nvidia ha lanzado una nueva versión de TensorRT, un sistema de tiempo de ejecución para aprovechar inferencias usando modelos de aprendizaje profundo a través de las propias GPUs de Nvidia.

Las inferencias, o las predicciones hechas de un modelo entrenado, se pueden servir de CPUs o de GPUs. Usar las inferencias de las GPUs es parte de la estrategia de Nvidia para lograr una mayor adopción de sus procesadores, contrarrestando lo que AMD está haciendo para romper el dominio de Nvidia en el mercado de la GPU de aprendizaje automático.

Nvidia afirma que el TensorRT basado en GPU es mejor en general para la inferencia que los enfoques de CPU solamente. Uno de los puntos de referencia ofrecidos por Nvidia, la prueba de clasificación de imágenes de AlexNet bajo el marco de Caffe, afirma que TensorRT es 42 veces más rápido que una versión de la misma prueba, 16.041 imágenes por segundo frente a 374 cuando se ejecuta en el procesador Tesla P40 de Nvidia.  Servir las predicciones de una GPU también es más eficiente de energía y ofrece resultados con menor latencia, afirma Nvidia.

TensorRT no funciona nada más que con la propia línea de GPU de Nvidia, y es una oferta patentada de código cerrado. AMD, por el contrario, ha estado prometiendo un acercamiento más abierto a cómo sus GPUs se pueden utilizar para las aplicaciones de aprendizaje de la máquina, por medio de la biblioteca libre del hardware abierto del ROCm para acelerar el aprendizaje de la máquina.

Serdar Yegulalp

Serdar Yegulalp is a senior writer at InfoWorld. A veteran technology journalist, Serdar has been writing about computers, operating systems, databases, programming, and other information technology topics for 30 years. Before joining InfoWorld in 2013, Serdar wrote for Windows Magazine, InformationWeek, Byte, and a slew of other publications. At InfoWorld, Serdar has covered software development, devops, containerization, machine learning, and artificial intelligence, winning several B2B journalism awards including a 2024 Neal Award and a 2025 Azbee Award for best instructional content and best how-to article, respectively. He currently focuses on software development tools and technologies and major programming languages including Python, Rust, Go, Zig, and Wasm. Tune into his weekly Dev with Serdar videos for programming tips and techniques and close looks at programming libraries and tools.

Más temas de este autor