El Grupo de Inteligencia Artificial ha publicado un nuevo conjunto de resultados que evalúan la velocidad con la que el hardware puede ejecutar aplicaciones de IA. Dos nuevos puntos de referencia miden la rapidez con la que los chips y sistemas de IA producen respuestas a partir de modelos de IA ricos en datos. Un nuevo punto de referencia también evalúa la velocidad de Escenarios de preguntas y respuestas para modelos de lenguaje grandes El grupo de evaluación comparativa de inteligencia artificial MLCommons publicó el miércoles un nuevo conjunto de pruebas y resultados que califican la rapidez con la que el hardware de vanguardia puede ejecutar aplicaciones de inteligencia artificial y responder a los usuarios. Dos nuevos estándares agregados por MLCommons miden la rapidez con la que los chips y sistemas de IA pueden generar respuestas a partir de modelos de IA potentes y ricos en datos. Los resultados muestran un aproximado sobre la rapidez con la que las aplicaciones de inteligencia artificial como ChatGPT pueden responder a las consultas de los usuarios; Uno de los nuevos puntos de referencia ha añadido la posibilidad de medir la velocidad de las situaciones de preguntas y respuestas en grandes modelos lingüísticos: Llama 2, que contiene 70 mil millones de parámetros y fue desarrollado por Meta Platforms Stable Diffusion modelo XL. Los visitantes observan el muñeco. Unitree Robotics durante el Festival de Inteligencia Artificial de Cannes el 2 de febrero y 10 de septiembre de 2023 en Cannes, Francia. (REUTERS/Eric Gaillard/File Photo) Los servidores impulsados por el chip Nvidia H100 fabricado por Google, Supermicro y la propia Nvidia de Alphabet superaron cómodamente ambos nuevos puntos de referencia. Varios fabricantes de servidores presentaron diseños utilizando el chip L40S menos potente de la compañía. El fabricante de servidores Krai presentó un diseño para el punto de referencia de visualización utilizando un chip Qualcomm AI que utiliza significativamente menos energía que los procesadores de última generación de Nvidia. Haga clic aquí para obtener el FOX news appIntel también presentó un diseño que utiliza el chip acelerador Gaudi2. La compañía describió los resultados como «robustos». El rendimiento general no es la única métrica que importa al implementar aplicaciones de IA. Los chips de IA avanzados apestan. Cantidades masivas de energía Y uno de los mayores desafíos para las empresas de IA es implementar chips que proporcionen un rendimiento óptimo con la menor cantidad de energía. MLCommons tiene una categoría de referencia separada para medir el consumo de energía.
Source link
+ There are no comments
Add yours