Acelera cinco veces la inferencia mediante deep learning en comparación con TensorFlow en GPUs de NVIDIA
MathWorks ha anunciado que MATLAB ofrece ahora integración con NVIDIA TensorRT mediante GPU Coder. Esto ayuda a los ingenieros y los científicos a desarrollar nuevos modelos de IA y deep learning en MATLAB con el rendimiento y la eficiencia necesarios para satisfacer las crecientes demandas de los centros de datos, aplicaciones embebidas y de automoción. MATLAB proporciona un flujo de trabajo completo para entrenar, validar y desplegar modelos de deep learning con rapidez. Los ingenieros pueden usar recursos de GPU sin programación adicional, de manera que se pueden concentrar en sus aplicaciones en lugar de en ajustar el rendimiento. La nueva integración de NVIDIA TensorRT con GPU Coder permite que los modelos de deep learning desarrollados en MATLAB se ejecuten en GPUs de NVIDIA con un rendimiento elevado y baja latencia.
Las pruebas de referencia internas muestran que el código CUDA generado por MATLAB combinado con TensorRT puede desplegar Alexnet con un rendimiento 5 veces superior que TensorFlow, y puede desplegar VGG-16 con un rendimiento 1,25 veces superior que TensorFlow para la inferencia mediante deep learning. “Las tecnologías de imagen, voz, sensor e IoT de rápida evolución están empujando a los equipos a explorar soluciones de IA con mayor rendimiento y eficiencia. Además, los modelos de deep learning son cada vez más complejos. Todo esto ejerce una inmensa presión sobre los ingenieros”, afirma David Rich, director en MathWorks. “Ahora, los equipos que entrenan modelos de deep learning con MATLAB y GPUs de NVIDIA pueden desplegar la inferencia en tiempo real en cualquier entorno, desde la nube hasta el centro de datos y dispositivos periféricos embebidos.” Si desea obtener más información sobre MATLAB para deep learning, visite: mathworks.com/solutions/deeplearning.html.
Inicio Actualidad MathWorks anuncia la integración de MATLAB con NVIDIA TensorRT para acelerar aplicaciones...