El ambicioso futuro de Nvidia es llevar la IA a todos los sectores donde se pueda explotar la tecnología GPU

Por qué razón es esencial: a lo largo del alegato de apertura de GTC 2023, el director ejecutivo de Nvidia, Jensen Huang, resaltó una exclusiva generación de adelantos que tienen como propósito llevar la inteligencia artificial a todas y cada una de las industrias. Al asociarse con colosales tecnológicos como Google, Microsoft y Oracle, Nvidia está consiguiendo adelantos en capacitación, implementación, semiconductores, bibliotecas de programa, sistemas y servicios en la nube de inteligencia artificial. Otras asociaciones y desarrollos anunciados tienen dentro Adobe, AT&T y el desarrollador de vehículos BYD.

Huang apuntó varios ejemplos del ecosistema de Nvidia en acción, incluyendo los clientes de Microsoft 365 y Azure que entran a una interfaz para hacer mundos virtuales, y Amazon que emplea habilidades de simulación para entrenar robots en un almacén autónomo. Asimismo mentó el veloz incremento de los servicios de inteligencia artificial generativa como ChatGPT, llamando a su éxito «el instante iPhone de la inteligencia artificial».

Fundamentada en la arquitectura Hopper de Nvidia, Huang anunció una exclusiva GPU H100 NVL que marcha en una configuración de doble GPU con NVLink, para agradar la creciente demanda de inferencia de inteligencia artificial y LLM. La GPU tiene un motor de transformador desarrollado para procesar modelos como GPT, lo que disminuye los costes de procesamiento de LLM. En comparación con el HGX A100 para procesamiento GPT-3, un servidor con 4 pares de H100 NVL puede ser hasta 10 ocasiones mucho más veloz, asegura la compañía.

Con la computación en la nube transformándose en una industria de un billón de dólares estadounidenses, Nvidia desarrolló el procesador Grace apoyado en Arm para cargas de trabajo de inteligencia artificial y en la nube. La compañía asegura tener un desempeño 2 ocasiones mejor que los procesadores x86 con exactamente la misma capacidad en las primordiales apps de centros de datos. Entonces, el superchip Grace Hopper combina el procesador Grace y la GPU Hopper para procesar conjuntos de datos colosales que están generalmente en bases de datos de inteligencia artificial y modelos de lenguaje enormes.

Te recomendamos:  POCO X4 GT: Un dispositivo que quiere reinar en la gama media a 280€

Por otro lado, el director ejecutivo de Nvidia afirma que su interfaz DGX H100, que entiende ocho GPU Nvidia H100, se convirtió en el modelo para crear una infraestructura de inteligencia artificial. Múltiples distribuidores esenciales de la nube, incluidos Oracle Cloud, AWS y Microsoft Azure, han comunicado proyectos para adoptar las GPU H100 en sus promociones. Los desarrolladores de servidores como Dell, Cisco y Lenovo asimismo fabrican sistemas con GPU Nvidia H100.

Gracias a que precisamente los modelos de inteligencia artificial generativa están de tendencia, Nvidia da nuevos modelos de hardware con casos de empleo concretos para realizar interfaces de inferencia de forma mucho más eficaz. La novedosa GPU L4 Tensor Core es un acelerador universal mejorado para vídeo, que da un desempeño de vídeo impulsado por inteligencia artificial 120 ocasiones mejor y una eficacia energética avanzada en un 99 % respecto a las únidad central de procesamiento, al tiempo que la L40 para la generación de imágenes está mejorada para gráficos y 2D habilitado para inteligencia artificial. , vídeo y generación de imágenes 3D.

Lea asimismo: ¿Nvidia ganó el mercado de entrenamiento de inteligencia artificial?

Omniverse de Nvidia asimismo está que se encuentra en la modernización de la industria automotriz. Para 2030, la industria va a ver una transición a automóviles eléctricos, novedosas factorías y megafábricas de baterías. Nvidia afirma que las primordiales fabricantes automotrices están adoptando Omniverse para una pluralidad de tareas: Lotus lo utiliza para el ensamblaje de máquinas de soldadura virtuales, Mercedes-Benz para la planificación y optimización de la línea de ensamblaje y Lucid Motors para la construcción de tiendas digitales con datos de diseño precisos. BMW está cooperando con idealworks para el entrenamiento de robots de factoría y para planear una factoría de automóviles eléctricos íntegramente en Omniverse.

Te recomendamos:  OPPO Pad 2 con inminente lanzamiento mundial

1679446089 715 El ambicioso futuro de Nvidia es llevar la IA a todos

Generalmente, hubo bastantes avisos y asociaciones para nombrar, pero podría decirse que el gran salto final se causó en el lado de la fabricación. Nvidia anunció un enorme avance en la velocidad de producción de chips y la eficacia energética con la introducción de «cuLitho», una biblioteca de programa desarrollada para apresurar la litografía por PC hasta 40 ocasiones.

Jensen explicó que cuLitho puede achicar de manera significativa la computación y el procesamiento de datos extensos precisos para diseñar y crear chips. Esto daría como resultado una reducción importante del consumo de electricidad y elementos. TSMC y el distribuidor de equipos de semiconductores ASML planean integrar cuLitho en sus procesos de producción.

Descubra el informe del mes (traducido en francés), ¿va a ganar la inteligencia artificial contra los vencedores mundiales del juego de Go? :

Tommy Banks
Estaremos encantados de escuchar lo que piensas

Deje una respuesta

TecnoBreak | Ofertas y Reviews
Logo
Shopping cart