NVIDIA - GTC 2023 Keynote with NVIDIA CEO Jensen Huang - Español

🎁Amazon Prime 📖Kindle Unlimited 🎧Audible Plus 🎵Amazon Music Unlimited 🌿iHerb 💰Binance

Durante casi cuatro décadas,

la Ley de Moore ha sido la dinámica rectora de la industria informática,

que a su vez ha impactado a todas las industrias.

El aumento exponencial del rendimiento a costo y potencia constantes se ha desacelerado.

Sin embargo, el avance informático ha ido a la velocidad de la luz.

El motor warp drive es computación acelerada y la fuente de energía es IA.

La llegada de la computación acelerada y la IA

es oportuna ya que las industrias abordan dinámicas poderosas:

sostenibilidad,

IA generativa

y digitalización.

Sin la Ley de Moore, a medida que aumenta la informática, el poder del centro de datos se dispara

y las empresas luchan por lograr Net Zero.

Las impresionantes capacidades de la IA generativa

crearon una sensación de urgencia para que las empresas reinventaran sus productos y modelos comerciales.

Las empresas industriales están compitiendo para digitalizarse y reinventarse en empresas de tecnología impulsadas por software,

para ser disruptivas

y no disruptivas.

Hoy, discutiremos cómo la computación acelerada y la IA son herramientas poderosas para enfrentar estos desafíos

y aprovechar las enormes oportunidades que se avecinan.

Compartiremos nuevos avances en la plataforma informática acelerada full-stack a escala de centro de datos de NVIDIA.

Revelaremos nuevos chips y sistemas, y bibliotecas de aceleración, servicios en la nube, IA y servicios de IA,

y asociaciones que abren nuevos mercados.

¡Bienvenido a GTC!

GTC es nuestra conferencia para desarrolladores.

El ecosistema global de NVIDIA abarca 4 millones de desarrolladores, 40 000 empresas

y 14 000 nuevas empresas.

Agradezco a nuestros patrocinadores Diamante por apoyarnos y hacer que GTC 2023 sea un gran éxito.

Estamos muy emocionados de dar la bienvenida a más de 250,000 de ustedes a nuestra conferencia.

GTC ha crecido increíblemente.

Hace solo cuatro años, nuestra conferencia GTC presencial contó con 8,000 asistentes.

En GTC 2023, aprenderemos de líderes como Demis Hassabis de DeepMind,

Valeri Taylor de Argonne Labs,

Scott Belsky de Adobe

Paul Debevec de Netflix

Thomas Schulthess de ETH Zurich

y una charla informal especial que estoy teniendo con Ilya Sutskever

cofundador de OpenAI, el creador de ChatGPT.

Tenemos 650 charlas increíbles de las mentes más brillantes de la academia y las industrias más grandes del mundo:

Hay más de 70 charlas solo sobre IA generativa.

Otras grandes charlas, como modelos multitarea pre-entrenados para robótica…

sesiones sobre la generación de datos sintéticos, un método importante para el avance de la IA,

incluida una sobre el uso de Isaac Sim para generar nubes de puntos LIDAR basadas físicamente

un montón de charlas sobre gemelos digitales, desde el uso de IA para poblar las fábricas virtuales del futuro,

hasta la restauración de mosaicos romanos perdidos del pasado

charlas geniales sobre instrumentos computacionales, incluido un telescopio óptico gigante y una tomografía computarizada de conteo de fotones

desde la ciencia de los materiales para la captura de carbono y las células solares, hasta la ciencia del clima, incluido nuestro trabajo en Earth-2,

importantes conversaciones de NVIDIA Research sobre la seguridad confiable de AI y AV

desde la litografía computacional para microchips, que fabrican las máquinas más pequeñas,

hasta la IA en el Gran Colisionador de Hadrones para explicar el universo.

Las empresas más importantes del mundo están aquí, desde automóviles y transporte,

atención médica, manufactura, servicios financieros,

venta minorista, indumentaria, medios y entretenimiento, telecomunicaciones

y, por supuesto, las empresas de IA líderes en el mundo.

El propósito de GTC es inspirar al mundo sobre el arte de lo posible de acelerar la computación

y celebrar los logros de los científicos e investigadores que lo utilizan.

Soy un traductor

Transformando texto en descubrimiento creativo,

movimiento en animación,

y dirección en acción.

Soy un sanador

Explorando los componentes básicos que nos hacen únicos

modelar nuevas amenazas antes de que sucedan

y buscando las curas para mantenerlos a distancia.

Soy un visionario

Generando nuevos milagros médicos

y dándonos una nueva y brillante perspectiva de nuestro Sol.

para mantenernos a salvo aquí en la tierra.

Soy un navegante

Descubriendo un momento único en un mar de contenido

estamos anunciando la próxima generación

y el escenario perfecto para cualquier historia.

Soy un creador

Creación de experiencias 3D a partir de instantáneas

y agregando nuevos niveles de realidad a nuestro yo virtual.

Soy un ayudante

Dando vida a las tormentas de ideas

compartiendo la sabiduría de un millón de desarrolladores

Y convirtiendo ideas en mundos virtuales.

Construir bosques del norte en el interior

Incluso ayudé a escribir este guión,

di vida a las palabras

y compuse la melodía.

Soy IA,

creada por NVIDIA, aprendizaje profundo y mentes brillantes en todas partes.

NVIDIA inventó la computación acelerada para resolver problemas que las computadoras normales no pueden.

La computación acelerada no es fácil:

requiere una invención completa, desde chips, sistemas, redes,

bibliotecas de aceleración, hasta la refactorización de las aplicaciones.

Cada pila optimizada acelera un dominio de aplicación,

desde gráficos, imágenes, dinámica de partículas o fluidos,

física cuántica hasta procesamiento de datos y aprendizaje automático.

Una vez acelerada, la aplicación puede disfrutar de una aceleración increíble, así como escalabilidad en muchas computadoras.

La combinación de aceleración y ampliación nos ha permitido lograr un millón de X

para muchas aplicaciones durante la última década,

lo que ayuda a resolver problemas que antes eran imposibles.

Aunque hay muchos ejemplos, el más famoso es el aprendizaje profundo.

En 2012, Alex Kerchevsky, Ilya Suskever y Geoff Hinton necesitaban una computadora increíblemente rápida

para entrenar el modelo de visión artificial de AlexNet.

Los investigadores entrenaron a AlexNet con 14 millones de imágenes en GeForce GTX 580,

procesando 262 cuatrillones de operaciones de punto flotante,

y el modelo entrenado ganó el desafío de ImageNet por un amplio margen y encendió el Big Bang de la IA.

Una década más tarde, se inventó el modelo transformador.

E Ilya, ahora en OpenAI, entrenó el modelo de lenguaje grande GPT-3 para predecir la siguiente palabra.

Se requirieron 323 sextillones de operaciones de punto flotante para entrenar GPT-3.

Un millón de veces más operaciones de coma flotante que entrenar a AlexNet.

El resultado esta vez: ChatGPT, la IA que se escucha en todo el mundo.

Se ha inventado una nueva plataforma informática.

El momento iPhone de la IA ha comenzado.

La computación acelerada y la IA han llegado.

Las bibliotecas de aceleración son el núcleo de la computación acelerada.

Estas bibliotecas se conectan a aplicaciones que se conectan a las industrias del mundo, formando una red de redes.

Después de tres décadas de desarrollo, varios miles de aplicaciones ahora están aceleradas

por NVIDIA, con bibliotecas en casi todos los dominios de la ciencia y la industria.

Todas las GPU NVIDIA son compatibles con CUDA, lo que proporciona una gran base de instalación y un alcance significativo para los desarrolladores.

Una gran cantidad de aplicaciones aceleradas atraen a los usuarios finales, lo que crea un gran mercado para los proveedores de servicios

en la nube y los fabricantes de computadoras.

Un gran mercado sustenta miles de millones en Investigación y Desarrollo para impulsar su crecimiento.

NVIDIA ha establecido el ciclo virtuoso de la computación acelerada.

De las 300 bibliotecas de aceleración y los 400 modelos de IA que abarcan el trazado de rayos y la representación neuronal,

las ciencias físicas, terrestres y de la vida, la física y la química cuánticas, la visión por computadora,

el procesamiento de datos, el aprendizaje automático y la IA, este año actualizamos 100

que aumentan el rendimiento y funciones para toda nuestra base instalada.

Permítanme destacar algunas bibliotecas de aceleración que resuelven nuevos desafíos y abren nuevos mercados.

Las industrias automotriz y aeroespacial utilizan CFD para la simulación de turbulencia y aerodinámica.

La industria electrónica utiliza CFD para el diseño de gestión térmica.

Esta es la diapositiva de Cadence de su nuevo solucionador de CFD acelerado por CUDA.

A un costo de sistema equivalente, NVIDIA A100 tiene 9 veces el rendimiento de los servidores de CPU.

O con un rendimiento de simulación equivalente, NVIDIA cuesta 9 veces menos o consume 17 veces menos energía.

Ansys, Siemens, Cadence y otros solucionadores de CFD líderes ahora están acelerados por CUDA.

En todo el mundo, el CAE industrial utiliza casi 100 000 millones de horas de núcleo de CPU al año.

La aceleración es la mejor manera de recuperar energía y lograr la sostenibilidad y Net Zero.

NVIDIA se asocia con la comunidad global de investigación de computación cuántica.

La plataforma NVIDIA Quantum consta de bibliotecas y sistemas para que los investigadores avancen en modelos de programación cuántica,

arquitecturas de sistemas y algoritmos.

cuQuantum es una biblioteca de aceleración para simulaciones de circuitos cuánticos.

IBM Qiskit, Google Cirq, Baidu Quantum Leaf, QMWare, QuEra, Xanadu Pennylane, Agnostiq y AWS Bracket

han integrado cuQuantum en sus marcos de simulación.

Open Quantum CUDA es nuestro modelo híbrido de programación GPU-Quantum.

IonQ, ORCA Computing, Atom, QuEra, Oxford Quantum Circuits, IQM, Pasqal, Quantum Brilliance, Quantinuum, Rigetti,

Xanadu y Anyon han integrado Open Quantum CUDA.

La corrección de errores en una gran cantidad de qubits es necesaria para recuperar datos del ruido cuántico y la decoherencia.

Hoy anunciamos un enlace de control cuántico, desarrollado en asociación con Quantum Machines,

que conecta las GPU de NVIDIA a una computadora cuántica para corregir errores a velocidades extremadamente altas.

Aunque todavía faltan una o dos décadas para las computadoras cuánticas comerciales, estamos encantados de apoyar a esta gran y vibrante

comunidad de investigación con NVIDIA Quantum.

Las empresas de todo el mundo utilizan Apache Spark para procesar almacenes y lagos de datos,

consultas SQL, análisis de gráficos y sistemas de recomendación.

Spark-RAPIDS es el motor de procesamiento de datos Apache Spark acelerado de NVIDIA.

El procesamiento de datos es la principal carga de trabajo del gasto mundial en computación en la nube de $500B.

Spark-RAPIDS ahora acelera las principales plataformas de procesamiento de datos en la nube, incluidas GCP Dataproc,

Amazon EMR, Databricks y Cloudera.

Los sistemas de recomendación utilizan bases de datos vectoriales para almacenar, indexar, buscar y recuperar conjuntos de datos masivos de datos no estructurados.

Un nuevo caso de uso importante de las bases de datos vectoriales son los grandes modelos de lenguaje para recuperar datos propietarios

o específicos del dominio que se pueden consultar durante la generación de texto.

Presentamos una nueva biblioteca, RAFT, para acelerar la indexación, la carga de datos

y la recuperación de un lote de vecinos para una sola consulta.

Llevamos la aceleración de RAFT a la búsqueda de similitud de IA FAISS de código abierto de Meta, la base de datos vectorial de código abierto de Milvus

utilizada por más de 1000 organizaciones y Redis con más de 4000 millones de extracciones de Docker.

Las bases de datos vectoriales serán esenciales para las organizaciones que construyan modelos de lenguaje extenso patentados.

Hace veintidós años, los científicos de investigación de operaciones Li y Lim publicaron una serie de problemas desafiantes de recogida y entrega.

El PDP aparece en la fabricación, el transporte, el comercio minorista y la logística, e incluso en el socorro en casos de desastre.

PDP es una generalización del problema del viajante de comercio y es NP-difícil,

lo que significa que no existe un algoritmo eficiente para encontrar una solución exacta.

El tiempo de solución crece factorialmente a medida que aumenta el tamaño del problema.

Usando un algoritmo de evolución y computación acelerada para analizar 30 mil millones de movimientos por segundo,

NVIDIA cuOpt ha batido el récord mundial y ha descubierto la mejor solución para el desafío de Li&Lim.

AT&T despacha rutinariamente 30,000 técnicos para dar servicio a 13 millones de clientes en 700 zonas geográficas.

Hoy, al ejecutarse en CPU, la optimización del despacho de AT&T se lleva a cabo de la noche a la mañana.

AT&T quiere encontrar una solución de despacho en tiempo real que se optimice continuamente para las necesidades urgentes

del cliente y la satisfacción general del cliente, mientras se ajusta a los retrasos y los nuevos incidentes que surgen.

Con cuOpt, AT&T puede encontrar una solución 100 veces más rápido y actualizar su solución de despacho en tiempo real.

AT&T ha adoptado un conjunto completo de bibliotecas NVIDIA AI.

Además de Spark-RAPIDS y cuOPT, utilizan Riva para IA conversacional y Omniverse para avatares digitales.

AT&T está aprovechando la computación acelerada de NVIDIA y la inteligencia artificial para la sostenibilidad, el ahorro de costos y los nuevos servicios.

cuOpt también puede optimizar los servicios logísticos. Cada año se entregan 400 000 millones de paquetes en 377 000 millones de paradas.

Deloitte, Capgemini, Softserve, Accenture y Quantiphi utilizan NVIDIA cuOpt para ayudar a los clientes a optimizar las operaciones.

La plataforma de inferencia de NVIDIA consta de tres SDK de software.

NVIDIA TensorRT es nuestro tiempo de ejecución de inferencia que se optimiza para la GPU de destino.

NVIDIA Triton es un software de servicio de inferencia de centros de datos de varios marcos que admite GPU y CPU.

Microsoft Office y Teams, Amazon, American Express y el Servicio Postal de EE. UU.

se encuentran entre los 40 000 clientes que usan TensorRT y Triton.

Uber usa Triton para servir cientos de miles de predicciones de ETA por segundo.

Con más de 60 millones de usuarios diarios, Roblox usa Triton para servir modelos para recomendaciones de juegos,

crear avatares y moderar contenido y anuncios de mercado.

Estamos lanzando algunas funciones nuevas y excelentes: compatibilidad con el analizador de modelos para conjuntos de modelos,

servicio de múltiples modelos concurrentes e inferencia de múltiples GPU y múltiples nodos para modelos de lenguaje amplio GPT-3

NVIDIA Triton Management Service es nuestro nuevo software que automatiza el escalado y la orquestación

de las instancias de inferencia de Triton en un centro de datos.

Triton Management Service lo ayudará a mejorar el rendimiento y la rentabilidad de la implementación de sus modelos.

Entre el 50 y el 80 % de las canalizaciones de video en la nube se procesan en CPU,

lo que consume energía y costos y agrega latencia.

CV-CUDA para visión por computadora y VPF para procesamiento de video son nuevas bibliotecas de aceleración a escala de nube.

CV-CUDA incluye 30 operadores de visión artificial para detección, segmentación y clasificación.

VPF es una biblioteca de aceleración de codificación y decodificación de video de Python.

Tencent usa CV-CUDA y VPF para procesar 300 000 videos por día.

Microsoft usa CV-CUDA y VPF para procesar la búsqueda visual.

Runway es una empresa genial que usa CV-CUDA y VPF para procesar video

para su servicio de edición de video con IA generativa en la nube.

Actualmente, el 80% del tráfico de Internet es video.

El contenido de video generado por el usuario está impulsando un crecimiento significativo y consumiendo enormes cantidades de energía.

Deberíamos acelerar todo el procesamiento de video y recuperar el poder.

CV-CUDA y VPF están en acceso anticipado.

La computación acelerada de NVIDIA ayudó a lograr un hito en la genómica:

ahora los médicos pueden extraer sangre y secuenciar el ADN de un paciente en la misma visita.

En otro hito, los instrumentos con tecnología de NVIDIA redujeron el costo de la secuenciación del genoma completo a solo $100.

La genómica es una herramienta crítica en biología sintética con aplicaciones que van desde el descubrimiento

de fármacos y la agricultura hasta la producción de energía.

NVIDIA Parabricks es un conjunto de bibliotecas aceleradas por IA para el análisis genómico de extremo a extremo en la nube o en un instrumento.

NVIDIA Parabricks está disponible en todas las plataformas de nube pública y genómica como Terra, DNAnexus y FormBio.

Hoy anunciamos Parabricks 4.1 y se ejecutará en instrumentos de genómica acelerados por NVIDIA

de PacBio, Oxford Nanopore, Ultima, Singular, BioNano y Nanostring.

El mercado mundial de instrumentos médicos de 250.000 millones de dólares se está transformando.

Los instrumentos médicos estarán definidos por software y alimentados por IA.

NVIDIA Holoscan es una biblioteca de software para sistemas de procesamiento de sensores en tiempo real.

Más de 75 empresas están desarrollando instrumentos médicos en Holoscan.

Hoy anunciamos que Medtronic, el líder mundial en instrumentos médicos, y NVIDIA están construyendo su plataforma de IA

para dispositivos médicos definidos por software.

Esta asociación creará una plataforma común para los sistemas de Medtronic, que van desde la navegación

quirúrgica hasta la cirugía asistida por robot.

Hoy, Medtronic anunció que su sistema GI Genius de próxima generación, con IA para la detección temprana del cáncer de colon,

se basa en NVIDIA Holoscan y se distribuirá a finales de este año.

La industria de los chips es la base de casi todas las industrias.

La fabricación de chips exige una precisión extrema, produciendo características 1000 veces más pequeñas que una bacteria

y del orden de un solo átomo de oro o una hebra de ADN humano.

La litografía, el proceso de creación de patrones en una oblea, es el comienzo del proceso

de fabricación de chips y consta de dos etapas: la creación de fotomáscaras y la proyección de patrones.

Es fundamentalmente un problema de imagen en los límites de la física.

La fotomáscara es como una plantilla de un chip. La luz se bloquea o pasa a través de la máscara

hacia la oblea para crear el patrón.

La luz es producida por el sistema de litografía ultravioleta extrema ASML EUV.

Cada sistema cuesta más de un cuarto de billón de dólares.

ASML EUV utiliza una forma radical de crear luz.

Los pulsos láser disparan 50.000 veces por segundo a una gota de estaño, lo vaporizan y crean un plasma que emite luz EUV de 13,5 nm,

casi rayos X.

Los espejos multicapa guían la luz hacia la máscara.

Los reflectores multicapa en la retícula de la máscara aprovechan los patrones de interferencia de la luz de 13,5 nm

para crear características más finas de hasta 3 nm.

Magia.

La oblea se coloca dentro de un cuarto de nanómetro y se alinea 20.000 veces por segundo para ajustarse a cualquier vibración.

El paso previo a la litografía es igualmente milagroso.

La litografía computacional aplica algoritmos de física inversa para predecir los patrones en la máscara

que producirán los patrones finales en la oblea.

De hecho, los patrones de la máscara no se parecen en nada a las características finales.

La litografía computacional simula las ecuaciones de Maxwell del comportamiento de la luz que pasa a través de la óptica

e interactúa con fotoprotectores.

La litografía computacional es la mayor carga de trabajo de computación en el diseño y la fabricación de chips,

y consume decenas de miles de millones de horas de CPU al año.

Los centros de datos masivos funcionan las 24 horas del día, los 7 días de la semana para crear retículas utilizadas en los sistemas de litografía.

Estos centros de datos son parte del CAPEX anual de casi $ 200 mil millones invertido por los fabricantes de chips.

La litografía computacional está creciendo rápidamente a medida que aumenta la complejidad de los algoritmos,

lo que permite que la industria vaya a 2nm y más allá.

NVIDIA anuncia hoy cuLitho, una biblioteca para litografía computacional.

cuLitho, un enorme cuerpo de trabajo que ha llevado casi cuatro años, y con colaboraciones cercanas con TSMC,

ASML y Synopsys, acelera la litografía computacional en más de 40X.

Hay 89 retículas para NVIDIA H100.

Al ejecutarse en CPU, una sola retícula actualmente tarda dos semanas en procesarse.

cuLitho, que se ejecuta en GPU, puede procesar una retícula en un solo turno de 8 horas.

TSMC puede reducir sus 40 000 servidores de CPU utilizados para la litografía computacional acelerando con cuLitho

en solo 500 sistemas DGX H100, lo que reduce la potencia de 35 MW a solo 5 MW.

Con cuLitho, TSMC puede reducir el tiempo de ciclo del prototipo, aumentar el rendimiento,

reducir la huella de carbono de su fabricación y prepararse para 2nm y más.

TSMC calificará a cuLitho para la producción a partir de junio.

Cada industria necesita acelerar cada carga de trabajo, para que podamos recuperar energía y hacer más con menos.

En los últimos diez años, la computación en la nube ha crecido un 20 % anual hasta convertirse en una industria masiva de $ 1 billón.

Unos 30 millones de servidores CPU realizan la mayor parte del procesamiento.

Hay retos en el horizonte.

Cuando termina la Ley de Moore, el aumento del rendimiento de la CPU viene con una mayor potencia.

Y el mandato de disminuir las emisiones de carbono está fundamentalmente en desacuerdo con la necesidad de aumentar los centros de datos.

El crecimiento de la computación en la nube es de energía limitada.

En primer lugar, los centros de datos deben acelerar cada carga de trabajo.

La aceleración recuperará el poder.

La energía ahorrada puede impulsar un nuevo crecimiento.

Todo lo que no esté acelerado se procesará en las CPU.

El punto de diseño de la CPU para los centros de datos en la nube acelerados difiere fundamentalmente del pasado.

En la IA y los servicios en la nube, la computación acelerada descarga cargas de trabajo paralelizables y las CPU procesan otras cargas de trabajo,

como RPC web y consultas de bases de datos.

Diseñamos la CPU Grace para un mundo de inteligencia artificial y nube, donde las cargas de trabajo de inteligencia artificial son aceleradas por GPU

y Grace sobresale en la ejecución de un solo subproceso y el procesamiento de memoria.

No se trata solo del chip de la CPU. Los operadores de centros de datos optimizan el rendimiento y el costo total de propiedad de todo el centro de datos.

Diseñamos Grace para una alta eficiencia energética a escala de centro de datos en la nube.

Grace consta de 72 núcleos Arm conectados por un tejido coherente escalable en chip de súper alta velocidad que ofrece 3,2 TB/seg

de ancho de banda transversal.

Grace Superchip conecta 144 núcleos entre dos matrices de CPU a través de una interfaz coherente de chip a chip de bajo consumo de 900 GB/seg.

El sistema de memoria es una memoria de bajo consumo LPDDR, como la que se usa en los teléfonos móviles, que hemos mejorado especialmente para su uso en centros de datos.

Ofrece 1 TB/s, 2,5 veces el ancho de banda de los sistemas actuales a 1/8 de potencia.

Todo el módulo Grace Superchip de 144 núcleos con 1 TB de memoria mide solo 5x8 pulgadas.

Es de tan baja potencia que puede ser enfriado por aire.

Este es el módulo de computación con enfriamiento pasivo.

Dos computadoras Grace Superchip pueden caber en un solo servidor enfriado por aire de 1U.

El rendimiento y la eficiencia energética de Grace son excelentes para aplicaciones informáticas científicas y en la nube.

Probamos Grace en un punto de referencia popular de Google, que prueba la rapidez con la que se comunican los microservicios en la nube,

y la suite Hi-Bench que prueba el procesamiento de datos con uso intensivo de memoria de Apache Spark.

Este tipo de cargas de trabajo son fundamentales para los centros de datos en la nube.

En microservicios, Grace es 1,3 veces más rápida que el promedio de las CPU x86

de última generación y 1,2 veces más rápida en el procesamiento de datos.

Y ese mayor rendimiento se logra utilizando solo el 60% de la potencia medida en el nodo de servidor completo.

Los CSP pueden equipar un centro de datos con energía limitada con 1,7 veces más servidores Grace, cada uno con un rendimiento un 25 % mayor.

En iso-power, Grace brinda a los CSP 2X la oportunidad de crecimiento.

Grace está probando.

Y Asus, Atos, Gigabyte, HPE, QCT, Supermicro, Wistron y ZT ahora están creando sistemas.

En un centro de datos definido por software moderno, el sistema operativo que realiza la virtualización, la red, el almacenamiento y la seguridad

puede consumir casi la mitad de los núcleos de CPU del centro de datos y la energía asociada.

Los centros de datos deben acelerar cada carga de trabajo para recuperar energía y CPU libres para cargas de trabajo generadoras de ingresos.

NVIDIA BlueField descarga y acelera el sistema operativo del centro de datos y el software de infraestructura.

Más de dos docenas de socios del ecosistema, incluidos Check Point, Cisco, DDN, Dell EMC,

Juniper, Palo Alto Networks, Red Hat y VMWare,

utilizan la tecnología de aceleración del centro de datos de BlueField para ejecutar sus plataformas de software de manera más eficiente.

BlueField-3 está en producción y es adoptado por los principales proveedores de servicios en la nube, Baidu, CoreWeave, JD.com, Microsoft Azure,

Oracle OCI y Tencent Games, para acelerar sus nubes.

La computación acelerada de NVIDIA comienza con DGX, la supercomputadora de inteligencia artificial del mundo,

el motor detrás del avance del modelo de lenguaje grande.

Entregué personalmente el primer DGX del mundo a OpenAI.

Desde entonces, la mitad de las empresas Fortune 100 han instalado supercomputadoras DGX AI.

DGX se ha convertido en el instrumento esencial de la IA.

La GPU de DGX son ocho módulos H100.

H100 tiene un motor Transformador diseñado para procesar modelos como el increíble ChatGPT,

que significa Transformadores preentrenados generativos.

Los ocho módulos H100 tienen NVLINK entre sí através de conmutadores NVLINK para permitir transacciones totalmente sin bloqueo.

Los ocho H100 funcionan como una GPU gigante.

El tejido informático es uno de los sistemas más vitales de la supercomputadora de IA.

NVIDIA Quantum InfiniBand de latencia ultrabaja de 400 Gbps,

con procesamiento en red,

conecta cientos y miles de nodos DGX en una

supercomputadora de IA.

NVIDIA DGX H100 es el modelo para los clientes que construyen infraestructura de IA en todo el mundo.

Ahora está en plena producción.

Estoy encantado de que Microsoft haya anunciado que Azure está abriendo vistas previas privadas de su supercomputadora H100 AI.

Pronto vendrán otros sistemas y servicios en la nube de Atos, AWS, Cirrascale, CoreWeave, Dell, Gigabyte, Google, HPE,

Lambda Labs, Lenovo, Oracle, Quanta y SuperMicro.

El mercado de las supercomputadoras DGX AI ha crecido significativamente.

Originalmente utilizadas como un instrumento de investigación de IA, las supercomputadoras DGX AI se están expandiendo a las operaciones,

funcionando las 24 horas del día, los 7 días de la semana para refinar los datos y procesar la IA.

Las supercomputadoras DGX son modernas fábricas de IA.

Estamos en el momento iPhone de la IA.

Las empresas emergentes están compitiendo para crear productos y modelos comerciales disruptivos, mientras que las empresas establecidas buscan responder.

La IA generativa ha desencadenado un sentido de urgencia en las empresas de todo el mundo para desarrollar estrategias de IA.

Los clientes necesitan acceder a NVIDIA AI de manera más fácil y rápida.

Estamos anunciando NVIDIA DGX Cloud a través de asociaciones con Microsoft Azure, Google GCP y Oracle OCI

para llevar las supercomputadoras NVIDIA DGX AI a todas las empresas, al instante, desde un navegador.

DGX Cloud está optimizado para ejecutar NVIDIA AI Enterprise, el conjunto de bibliotecas de aceleración líder en el mundo

para el desarrollo y la implementación de IA de extremo a extremo.

DGX Cloud ofrece a los clientes lo mejor de NVIDIA AI y lo mejor de los principales proveedores de servicios en la nube del mundo.

Esta asociación lleva el ecosistema de NVIDIA a los CSP, al tiempo que amplía la escala y el alcance de NVIDIA.

Esta asociación en la que todos ganan les da a los clientes una carrera para involucrar el acceso instantáneo de IA generativa a NVIDIA en nubes a escala global.

Estamos entusiasmados con la velocidad, la escala y el alcance de esta extensión en la nube de nuestro modelo comercial.

Oracle Cloud Infrastructure, OCI, será la primera NVIDIA DGX Cloud.

OCI tiene un excelente rendimiento. Tienen una estructura informática de dos niveles y una red de gestión.

CX-7 de NVIDIA, con la mejor RDMA de la industria, es el tejido informático.

Y BlueField-3 será el procesador de infraestructura para la red de gestión.

La combinación es una supercomputadora DGX AI de última generación que se puede ofrecer como un servicio en la nube de múltiples inquilinos.

Tenemos 50 clientes empresariales de acceso anticipado, que abarcan Internet y software de consumo, atención médica,

medios y entretenimiento, y servicios financieros.

ChatGPT, Stable Diffusion, DALL-E y Midjourney han despertado al mundo a la IA generativa.

La facilidad de uso y las impresionantes capacidades de estas aplicaciones atrajeron a más de cien millones de usuarios en solo unos meses:

ChatGPT es la aplicación de más rápido crecimiento en la historia.

No es necesario ningún entrenamiento. Solo pídales a estos modelos que hagan algo.

Las indicaciones pueden ser precisas o ambiguas. Si no está claro,

a través de la conversación, ChatGPT aprende sus intenciones.

El texto generado es más que impresionante.

ChatGPT puede redactar memorandos y poemas, parafrasear un trabajo de investigación, resolver problemas matemáticos,

resaltar puntos clave de un contrato e incluso codificar programas de software.

ChatGPT es una computadora que no solo ejecuta software sino que también escribe software.

Muchos avances llevaron a la IA generativa.

Los transformadores aprenden el contexto y el significado de las relaciones y dependencias de los datos, en paralelo y a gran escala.

Esto condujo a modelos de lenguaje grande que aprenden de tantos datos

que pueden realizar tareas posteriores sin capacitación explícita.

Y los modelos de difusión, inspirados en la física, aprenden sin supervisión a generar imágenes.

En poco más de una década, pasamos de tratar de reconocer gatos generar imágenes realistas de un gato

acon un traje espacial

caminando sobre la luna.

La IA generativa es un nuevo tipo de computadora, una que programamos en lenguaje humano.

Esta habilidad tiene profundas implicaciones. Todos pueden dirigir una computadora para resolver problemas.

Este era un dominio solo para programadores de computadoras.

Ahora todos son programadores.

La IA generativa es una nueva plataforma informática como PC, Internet, dispositivos móviles y la nube.

Y al igual que en eras informáticas anteriores, los pioneros están creando nuevas aplicaciones

y fundando nuevas empresas para capitalizar la capacidad de IA generativa para automatizar y cocrear.

Debuild permite a los usuarios diseñar e implementar aplicaciones web simplemente explicando lo que quieren.

Grammarly es un asistente de escritura que considera el contexto.

Tabnine ayuda a los desarrolladores a escribir código.

Omnekey genera anuncios y textos personalizados.

Kore.ai es un agente de servicio al cliente virtual.

Jasper genera material de marketing. Jasper ha escrito casi 5 mil millones de palabras,

reduciendo el tiempo para generar el primer borrador en un 80%.

Insilico utiliza IA para acelerar el diseño de fármacos.

Absci está utilizando IA para predecir anticuerpos terapéuticos.

La IA generativa reinventará casi todas las industrias.

Muchas empresas pueden utilizar una de las excelentes API de IA generativa que están saliendo al mercado.

Algunas empresas necesitan crear modelos personalizados, con sus datos propietarios, que sean expertos en su dominio.

Necesitan establecer medidas de protección de uso y refinar sus modelos para alinearse

con los requisitos de seguridad, privacidad y protección de su empresa.

La industria necesita una fundición, un TSMC, para modelos de lenguaje grande personalizados.

Hoy anunciamos NVIDIA AI Foundations,

un servicio en la nube para clientes que necesitan crear, refinar y operar

modelos de lenguaje amplio (LLM) personalizados e IA generativa

entrenada con sus datos propietarios

y para sus tareas específicas de dominio.

NVIDIA AI Foundations comprende servicios de creación de modelos de lenguaje,

visualización y biología.

NVIDIA Nemo es para crear modelos generativos de texto a texto

de lenguaje personalizado.

Los clientes pueden traer su modelo o comenzar con los modelos de lenguaje previamente entrenados de Nemo, que van desde GPT-8, GPT-43

y GPT-530 mil millones de parámetros.

A lo largo de todo el proceso, los expertos en IA de NVIDIA trabajarán contigo, desde la creación de tu modelo patentado hasta las operaciones.

Echemos un vistazo.

Los modelos generativos, como el modelo fundamental 43B de NVIDIA, aprenden entrenándose en miles de millones de oraciones

y billones de palabras.

A medida que el modelo converge, comienza a comprender las relaciones entre las palabras y sus conceptos subyacentes,

capturados en los pesos en el espacio incrustado del modelo.

Los modelos de transformadores utilizan una técnica llamada autoatención: un mecanismo diseñado para aprender dependencias y relaciones

dentro de una secuencia de palabras.

El resultado es un modelo que proporciona la base para una experiencia similar a ChatGPT.

Estos modelos generativos requieren grandes cantidades de datos,

una gran experiencia en IA para el procesamiento de datos y la capacitación distribuida,

y computación a gran escala para capacitar, implementar y mantener al ritmo de la innovación.

Las empresas pueden acelerar su adopción de IA generativa

con el servicio NVIDIA NeMo que se ejecuta en NVIDIA DGX Cloud.

El camino más rápido es comenzar con uno de los modelos básicos

preentrenados de última generación de NVIDIA.

Con el servicio NeMo, las organizaciones pueden personalizar fácilmente un modelo

con p-tuning para enseñarle habilidades especializadas,

como resumir documentos financieros,

crear contenido específico de la marca

y redactar correos electrónicos con estilos de escritura personalizados.

Conectar el modelo a una base de conocimiento

patentada garantiza que las respuestas sean precisas, actuales

y citadas para su negocio.

Luego, pueden proporcionar barandillas al agregar lógica

y monitorear entradas, salidas, toxicidad y umbrales de sesgo

para que opere dentro de un dominio específico

y evite respuestas no deseadas.

Después de poner el modelo a trabajar, puede mejorar continuamente

con el aprendizaje por refuerzo basado en las interacciones del usuario.

Y el área de juegos de NeMo está disponible para la creación rápida de prototipos antes de pasar a la API

en la nube para una evaluación e integración de aplicaciones a mayor escala.

Regístrese hoy en el servicio NVIDIA NeMo

para codificar el conocimiento de su empresa en un modelo

de IA personalizado que usted controla.

Picasso es un servicio de creación de modelos de lenguaje visual para clientes que desean crear modelos personalizados

entrenados con contenido patentado o con licencia.

Vamos a ver.

La IA generativa está transformando la forma en que se crea el contenido visual. Pero para aprovechar todo su potencial,

las empresas necesitan cantidades masivas de datos con derechos de autor, expertos en inteligencia artificial y una supercomputadora de AI.

NVIDIA Picasso es un servicio en la nube para crear e implementar

aplicaciones generativas de imagen, video y 3D impulsadas por IA.

Con él, las empresas, los ISV y los proveedores de servicios

pueden implementar sus propios modelos.

Estamos trabajando con socios de primer nivel para llevar

capacidades de IA generativa a todas las industrias.

Las organizaciones también pueden comenzar con los modelos NVIDIA Edify

y capacitarlos en sus datos para crear un producto o servicio.

Estos modelos generan imágenes, videos y activos 3D.

Para acceder a los modelos generativos de IA,

las aplicaciones envían una llamada API con indicaciones de texto

y metadatos a Picasso.

Picasso utiliza el modelo apropiado que se ejecuta en NVIDIA DGX Cloud

para devolver el activo generado a la aplicación.

Puede ser una imagen fotorrealista, un video de alta resolución o una geometría 3D detallada.

Los activos generados se pueden importar a herramientas de edición o a NVIDIA Omniverse para crear mundos virtuales fotorrealistas,

aplicaciones de metaverso y simulaciones de gemelos digitales.

Con los servicios de NVIDIA Picasso ejecutándose en NVIDIA DGX Cloud,

puede optimizar la capacitación, la optimización y la inferencia

necesarias para crear aplicaciones de IA generativas personalizadas.

Observe cómo NVIDIA Picasso puede incorporar capacidades de IA generativa transformadora en sus aplicaciones.

Estamos encantados de que Getty Images utilice el servicio Picasso para crear modelos generativos de Edify-image y Edify-video capacitados

en su rica biblioteca de recursos de imágenes y videos profesionales con licencia responsable.

Las empresas podrán crear imágenes y videos personalizados con indicaciones simples de texto o imágenes.

Shutterstock está desarrollando un modelo generativo Edify-3D

entrenado en su biblioteca profesional de recursos de imagen, 3D y video.

Shutterstock ayudará a simplificar la creación de activos 3D para la producción creativa, los gemelos digitales y la colaboración virtual,

haciendo que estos flujos de trabajo sean más rápidos y fáciles de implementar para las empresas.

Y estoy encantado de anunciar una expansión significativa de nuestra asociación de muchos años con Adobe

para construir un conjunto de capacidades de inteligencia artificial de próxima generación para el futuro de la creatividad;

integrando la IA generativa en los flujos de trabajo cotidianos de los profesionales del marketing y creativos.

Los nuevos modelos de IA generativa se optimizarán para la creación de imágenes,

video, 3D y animación.

Para proteger los derechos de los artistas, Adobe se está desarrollando con un enfoque en la viabilidad comercial y la atribución

de contenido adecuada impulsada por la Iniciativa de Autenticidad de Contenido de Adobe.

Nuestro dominio del tercer idioma es la biología.

El descubrimiento de fármacos es una industria

de casi 2 billones de dólares con 250 mil millones de dólares dedicados a investigación y desarrollo.

NVIDIA Clara es un marco de aplicación de atención médica para imágenes,

instrumentos, genómica y descubrimiento de fármacos.

La industria ahora está saltando a la IA generativa para descubrir objetivos de enfermedades,

diseñar moléculas novedosas o medicamentos basados en proteínas y predecir el comportamiento de los medicamentos en el cuerpo.

Insilico Medicine, Exscientia, Absci y Evozyme se encuentran entre cientos de nuevas empresas de descubrimiento de fármacos de IA.

Varios han descubierto nuevos objetivos o candidatos a fármacos y han comenzado ensayos clínicos en humanos.

BioNemo ayuda a los investigadores a crear,

ajustar y servir modelos personalizados con sus datos patentados.

Vamos a ver.

Hay tres etapas clave para el descubrimiento:

descubrir la biología que causa la enfermedad,

diseñar nuevas moléculas, ya sean moléculas pequeñas, proteínas o anticuerpos,

y finalmente evaluar cómo interactúan esas moléculas entre sí.

Hoy, la IA generativa está transformando cada paso del proceso de descubrimiento de fármacos.

El servicio NVIDIA BioNeMo proporciona modelos

de IA generativos de última generación para el descubrimiento de fármacos,

está disponible como un servicio en la nube, lo que brinda acceso instantáneo y fácil a flujos de trabajo acelerados de descubrimiento de fármacos.

BioNeMo incluye modelos como AlphaFold, ESMFold y OpenFold

para la predicción de estructuras de proteínas en 3D.

ProtGPT2 para generación de proteínas,

ESM1 y ESM2 para predicciones de propiedades de proteínas,

MegaMolBart y MoFlow para generación de moléculas pequeñas

y DiffDock para acoplamiento molecular.

Los equipos de descubrimiento de fármacos pueden usar los modelos a través de la interfaz

web o las API web.

Aquí hay un ejemplo de cómo puede usar NVIDIA BioNemo

para una detección virtual de descubrimiento de fármacos.

Los modelos generativos ahora pueden leer una secuencia de aminoácidos de proteínas

y, en segundos, predecir con precisión la estructura de una proteína objetivo.

También pueden generar moléculas con propiedades ADME deseables que optimizan el comportamiento de un fármaco en el organismo.

Los modelos generativos pueden incluso predecir las interacciones 3D de una proteína y una molécula,

lo que acelera el descubrimiento de fármacos candidatos óptimos.

Con NVIDIA DGX Cloud, BioNeMo también proporciona una infraestructura de supercomputación bajo demanda para optimizar y entrenar aún más los modelos,

ahorrando a los equipos tiempo y dinero valiosos para que puedan concentrarse en descubrir medicamentos que salvan vidas.

Los nuevos canales de descubrimiento de Fármacos IA ya están aquí.

Regístrese para acceder al servicio NVIDIA BioNeMo.

Continuaremos trabajando con la industria para incluir modelos en BioNemo

que abarquen el flujo de trabajo integral del descubrimiento de fármacos y la detección virtual.

Amgen, AstraZeneca, Insilico Medicine, Evozyne, Innophore y Alchemab Therapeutics son usuarios de acceso temprano a BioNemo.

NVIDIA AI Foundations, un servicio en la nube, una fundición, para crear modelos de lenguaje personalizados e IA generativa.

Desde AlexNet hace una década, el aprendizaje profundo ha abierto nuevos mercados gigantes: conducción automatizada, robótica, parlantes inteligentes

y reinventado la forma en que compramos, consumimos noticias y disfrutamos de la música.

Eso es solo la punta del iceberg.

La IA se encuentra en un punto de inflexión, ya que la IA generativa ha iniciado una nueva ola de oportunidades, impulsando un aumento de funciones escalonadas

en las cargas de trabajo de inferencia.

La IA ahora puede generar diversos datos, desde voz, texto, imágenes, video y gráficos 3D hasta proteínas y productos químicos.

Diseñar un centro de datos en la nube para procesar IA generativa es un gran desafío.

Por un lado, un solo tipo de acelerador es ideal, porque permite que el centro de datos sea elástico

y maneje los picos y valles impredecibles del tráfico.

Por otro lado, ningún acelerador puede procesar de manera óptima la diversidad de algoritmos, modelos, tipos de datos y tamaños.

La plataforma One Architecture de NVIDIA ofrece aceleración y elasticidad.

Hoy anunciamos nuestra nueva plataforma de inferencia: cuatro configuraciones, una arquitectura, una pila de software.

Cada configuración está optimizada para una clase de cargas de trabajo.

Para cargas de trabajo de video de IA, tenemos L4 optimizado para decodificación y transcodificación de video, moderación

de contenido de video y funciones de videollamadas como reemplazo de fondo, reiluminación, contacto visual,

transcripción y traducción de idiomas en tiempo real.

La mayoría de los videos en la nube de hoy en día se procesan en CPU.

Un servidor L4 de 8 GPU reemplazará a más de cien servidores de CPU de doble socket para procesar AI Video.

Snap es un usuario líder de NVIDIA AI para visión por computadora y sistemas de recomendación.

Snap utilizará L4 para procesamiento de video AV1, IA generativa y realidad aumentada.

Los usuarios de Snapchat suben cientos de millones de videos todos los días.

Google anunció hoy la disponibilidad de NVIDIA L4 en GCP.

NVIDIA y Google Cloud están trabajando en la implementación de varias cargas de trabajo importantes en L4.

Permítanme destacar cinco:

En primer lugar, estamos acelerando la inferencia de modelos generativos de IA para los servicios en la nube como Wombo y Descript.

En segundo lugar, estamos integrando Triton Inference Server con Google Kubernetes Engine y VertexAI.

En tercer lugar, estamos acelerando Google Dataproc con NVIDIA Spark-RAPIDS.

En cuarto lugar, estamos acelerando los modelos de lenguaje grande AlphaFold y UL2 y T5.

Y quinto, estamos acelerando el Immersive Stream de Google Cloud que ofrece experiencias 3D y AR.

Con esta colaboración, Google GCP es una nube NVIDIA AI de primer nivel.

Esperamos poder contarles aún más sobre nuestra colaboración muy pronto.

Para Omniverse, renderizado de gráficos e IA generativa como texto a imagen y texto a video, anunciamos L40.

L40 tiene hasta 10 veces el rendimiento de T4 de NVIDIA, la GPU de inferencia en la nube más popular.

Runway es pionera en IA generativa.

Su equipo de investigación fue un creador clave de Stable Diffusion y su predecesor, Latent Diffusion.

Runway está inventando modelos generativos de IA para crear y editar contenido.

Con más de 30 AI Magic Tools, su servicio está revolucionando el proceso creativo, todo desde la nube.

Vamos a ver.

Runway está haciendo que las increíbles herramientas de creación de imágenes y edición de video impulsadas por IA sean accesibles para todos.

Impulsado por la última generación de GPU NVIDIA que se ejecutan localmente o en la nube, Runway permite

eliminar un objeto de un video con solo unas pocas pinceladas.

O cambie el fondo, o el primer plano, de un video.

O aplique diferentes estilos al video usando solo una imagen de entrada.

Lo que antes tomaba horas con herramientas convencionales ahora se puede completar con resultados de calidad de transmisión profesional

en solo unos minutos.

Runway hace esto mediante el uso de CV-CUDA, un proyecto de código abierto que permite a los desarrolladores crear canalizaciones

de procesamiento previo y posterior aceleradas por GPU altamente eficientes para cargas de trabajo de visión por computadora y escalarlas a la nube.

Con la tecnología NVIDIA, Runway es capaz de hacer cosas imposibles para brindar la mejor experiencia a los creadores de contenido.

Lo que antes eran profesionales limitados, ahora lo puede hacer usted.

De hecho, Runway se usa en películas de Hollywood nominadas al Oscar y estamos poniendo esta tecnología

en manos de los creadores del mundo.

Los Grandes Modelos de Lenguaje como ChatGPT son una carga de trabajo de inferencia nueva e importante.

Los modelos GPT son intensivos en memoria y computacionalmente.

Además, la inferencia es una carga de trabajo de escalamiento horizontal de gran volumen y requiere servidores básicos estándar.

Para la inferencia de modelos de lenguaje grande, como ChatGPT, anunciamos una nueva GPU Hopper: la PCIE H100

con NVLINK de doble GPU. El nuevo H100 tiene 94 GB de memoria HBM3.

H100 puede procesar el GPT-3 de 175 mil millones de parámetros

y la compatibilidad con servidores PCIE básicos facilitan el escalado horizontal.

La única GPU en la nube hoy en día que prácticamente puede procesar ChatGPT es HGX A100.

En comparación con HGX A100 para procesamiento GPT-3, un servidor estándar con cuatro pares de H100 con NVLINK

de doble GPU es hasta 10 veces más rápido.

H100 puede reducir los costos de procesamiento de Modelos de Gran Lenguaje en un orden de magnitud.

Grace Hopper es nuestro nuevo superchip que conecta la CPU Grace y la GPU Hopper a través de una interfaz coherente

de chip a chip de alta velocidad de 900 GB/seg.

Grace Hopper es ideal para procesar conjuntos de datos gigantes como bases de datos de IA para sistemas

de recomendación y modelos de lenguaje grandes.

Hoy en día, las CPU, con gran memoria, almacenan y consultan tablas de incrustación gigantes y luego transfieren los resultados a las GPU para la inferencia.

Con Grace-Hopper, Grace consulta las tablas de incrustación y transfiere los resultados directamente a Hopper

a través de la interfaz de alta velocidad: siete veces más rápido que PCIE.

Los clientes quieren construir bases de datos de IA varios órdenes de magnitud más grandes.

Grace-Hopper es el motor ideal.

Esta es la plataforma de inferencia de NVIDIA: una arquitectura para diversas cargas de trabajo de IA

y máxima aceleración y elasticidad del centro de datos.

Las industrias más grandes del mundo fabrican cosas físicas, pero quieren construirlas digitalmente.

Omniverse es una plataforma para la digitalización industrial que une lo digital y lo físico.

Permite que las industrias diseñen, construyan, operen y optimicen productos físicos y fábricas digitalmente,

antes de hacer una réplica física.

La digitalización aumenta la eficiencia y la velocidad y ahorra dinero.

Uno de los usos de Omniverse es la presentación virtual de una fábrica, donde toda su maquinaria se integra digitalmente

antes de que se construya la fábrica real.

Esto reduce las sorpresas de última hora, las órdenes de cambio y los retrasos en la apertura de la planta.

La integración de la fábrica virtual puede ahorrar miles de millones para las fábricas del mundo.

La industria de los semiconductores está invirtiendo medio billón de dólares para construir un récord de 84 nuevas fábricas.

Para 2030, los fabricantes de automóviles construirán 300 fábricas para fabricar 200 millones de vehículos eléctricos.

Y los fabricantes de baterías están construyendo 100 mega fábricas más.

La digitalización también está transformando la logística, moviendo mercancías a través de miles de millones de pies cuadrados de almacenes en todo el mundo.

Veamos cómo Amazon usa Omniverse para automatizar, optimizar y planificar sus almacenes autónomos.

Amazon Robotics ha fabricado e implementado la mayor flota de robots industriales móviles del mundo.

El miembro más nuevo de esta flota robótica es Proteus, el primer robot de almacén completamente autónomo de Amazon.

Proteus está diseñado para moverse a través de nuestras instalaciones utilizando tecnología avanzada de seguridad, percepción y navegación.

Veamos cómo NVIDIA Isaac Sim, basado en Omniverse, está creando simulaciones fotorrealistas

físicamente precisas para ayudar a acelerar las implementaciones de Proteus.

Proteus cuenta con múltiples sensores que incluyen cámaras, lidars y sensores ultrasónicos

para alimentar sus sistemas de software de autonomía.

El equipo de Proteus necesitaba mejorar el rendimiento de una red neuronal que leía marcadores de referencia y ayudaba al robot

a determinar su ubicación en el mapa.

Se necesitan muchos datos, y del tipo correcto, para entrenar los modelos ML que son impulsados por la entrada del sensor del robot.

Con Omniverse Replicator en Isaac Sim, Amazon Robotics pudo generar grandes conjuntos de datos sintéticos fotorrealistas que mejoraron

la tasa de éxito de detección de marcadores del 88,6 % al 98 %.

El uso de los datos sintéticos generados por Omniverse Replicator también aceleró los tiempos de desarrollo, de meses a días,

ya que pudimos probar y entrenar iterativamente nuestros modelos mucho más rápido que cuando solo usamos datos reales.

Para habilitar nuevas capacidades autónomas para la flota en expansión de robots Proteus, Amazon Robotics está trabajando

para cerrar la brecha entre la simulación y la realidad, creando simulaciones de múltiples sensores y múltiples robots a gran escala.

Con Omniverse, Amazon Robotics optimizará las operaciones con gemelos digitales de almacén de fidelidad total.

Ya sea que estemos generando datos sintéticos o desarrollando nuevos niveles de autonomía, Isaac Sim en Omniverse

ayuda al equipo de Amazon Robotics a ahorrar tiempo y dinero a medida que implementamos Proteus en nuestras instalaciones.

Omniverse tiene tecnologías únicas para la digitalización.

Y Omniverse es la principal plataforma de desarrollo para USD, que sirve como lenguaje común que permite

a los equipos colaborar para crear mundos virtuales y gemelos digitales.

Omniverse tiene una base física, reflejando las leyes de la física.

Puede conectarse a sistemas robóticos y operar con hardware-in-the-loop.

Cuenta con IA generativa para acelerar la creación de mundos virtuales.

Y Omniverse puede administrar conjuntos de datos de enorme escala.

Hemos realizado actualizaciones significativas en Omniverse en todas las áreas.

Vamos a ver.

Casi 300.000 creadores y diseñadores han descargado Omniverse.

Omniverse no es una herramienta, sino una red USD y una base de datos compartida,

un tejido que se conecta a las herramientas de diseño utilizadas en todas las industrias.

Conecta, compone y simula los activos creados por herramientas líderes en la industria.

Estamos encantados de ver el crecimiento de las conexiones de Omniverse.

Cada conexión vincula el ecosistema de una plataforma con los ecosistemas de todas las demás.

La red de redes de Omniverse está creciendo exponencialmente.

Bentley Systems LumenRT ya está conectado.

También lo son Siemens Teamcenter, NX y Process Simulate, Rockwell Automation Emulate 3D, Cesium, Unity y muchos más.

Veamos la digitalización de la industria automotriz de $3 billones

y veamos cómo las compañías automotrices están evaluando Omniverse en sus flujos de trabajo.

Volvo Cars y GM utilizan Omniverse USD Composer para conectar y unificar sus canales de activos.

GM conecta a diseñadores, escultores y artistas usando Alias, Siemens NX, , Unreal, Maya, 3ds Max

y ensambla virtualmente los componentes en un gemelo digital del automóvil.

En ingeniería y simulación, visualizan la aerodinámica Powerflow en Omniverse.

Para los vehículos Mercedes-Benz y Jaguar Land Rover de próxima generación, los ingenieros utilizan Drive Sim en Omniverse para generar

datos sintéticos para entrenar modelos de IA, validar el sistema de seguridad activa contra una prueba de conducción NCAP virtual

y simular escenarios de conducción reales.

La IA generativa de Omniverse reconstruye rutas conducidas previamente en 3D

para que las experiencias pasadas puedan recrearse o modificarse.

Trabajando con Idealworks, BMW usa Isaac Sim en Omniverse para generar escenarios y datos sintéticos

para entrenar robots de fábrica.

Lotus está utilizando Omniverse para ensamblar virtualmente estaciones de soldadura.

Toyota está utilizando Omniverse para construir gemelos digitales de sus plantas.

Mercedes-Benz utiliza Omniverse para construir, optimizar y planificar líneas de montaje para nuevos modelos.

Rimac y Lucid Motors usan Omniverse para construir tiendas digitales a partir de datos de diseño reales que representan fielmente sus autos.

BMW está utilizando Omniverse para planificar operaciones en casi tres docenas de fábricas en todo el mundo.

Y están construyendo una nueva fábrica de vehículos eléctricos, completamente en Omniverse, dos años antes de que se abra la planta física.

Vamos a visitar.

Las industrias del mundo están acelerando la digitalización con más de 3,4 billones de dólares invertidos en los próximos tres años.

En BMW nos esforzamos por estar a la vanguardia en la digitalización automotriz.

Con NVIDIA Omniverse e AI, instalamos nuevas fábricas más rápido y producimos de manera más eficiente que nunca.

Esto se traduce en ahorros significativos para nosotros.

Todo comienza con la planificación, un proceso complejo en el que necesitamos conectar muchas herramientas,

conjuntos de datos y especialistas de todo el mundo.

Tradicionalmente, estamos limitados, ya que los datos se gestionan por separado en una variedad de sistemas y herramientas.

Hoy, estamos cambiando todo eso.

Estamos desarrollando “aplicaciones Omniverse personalizadas” para conectar nuestras herramientas, conocimientos y equipos existentes,

todo en una vista unificada.

Omniverse es nativo de la nube e independiente de la nube, lo que permite a los equipos colaborar en nuestras fábricas virtuales desde cualquier lugar.

Estoy a punto de unirme a una sesión de planificación virtual para Debrecen en Hungría, nuestra nueva fábrica de vehículos eléctricos, que se inaugurará en 2025.

Vamos a unirnos.

Planner 1: Ah, Milán se une.

Milan: Hola a todos. ¿Cuál es el estatus aquí?

Planificador 1:Hola, Milán. Me alegro de verte. Estamos en medio de un ciclo de optimización para nuestro taller de carrocería.

¿Te gustaría ver?

Milan: Gracias, estoy muy interesado. Y me gustaría invitar a un amigo.

Planificador 1: Claro.

Jensen: ¡Hola Milán! Que bueno verte.

Milan: Jensen, también me alegro de verte. Bienvenido a nuestra sesión de planificación virtual.

Jensen: Es genial estar aquí. ¿Qué estamos mirando?

Milan: este es nuestro equipo de planificación global que está trabajando en una célula robótica en el gemelo digital de Debrecen.

Matthias, cuéntanos qué pasa…

Matthias: Acabamos de enterarnos de que el concepto de producción requiere algunos cambios.

Ahora estamos reconfigurando el diseño para agregar un nuevo robot a la celda.

Planificador 2: Ok, pero si agregamos un nuevo robot, en el lado de la logística, tendremos que mover nuestro contenedor de almacenamiento.

Planificador 3: Muy bien, introduzcamos este nuevo robot.

Matthias: Eso es perfecto. Verifiquemos dos veces: ¿podemos ejecutar la celda?

Excelente.

Jensen: Milan, ¡esto es simplemente increíble!

La integración virtual ahora es esencial para todas las industrias.

Estoy muy orgulloso de ver lo que nuestros equipos han hecho juntos. ¡Felicidades!

Milan: Estamos trabajando globalmente para optimizar localmente.

Después de la planificación, las operaciones son el rey, ¡y ya hemos comenzado!

Para celebrar el lanzamiento de nuestra planta virtual, me gustaría invitarlos a abrir conmigo la primera fábrica digital.

Jensen: Sería un honor. ¡Vamos a hacerlo!

Las empresas de automóviles emplean a casi 14 millones de personas.

La digitalización mejorará la eficiencia, la productividad y la velocidad de la industria.

Omniverse es el sistema operativo de digital a físico para realizar la digitalización industrial.

Hoy anunciamos tres sistemas diseñados para ejecutar Omniverse.

Primero, estamos lanzando una nueva generación de estaciones de trabajo con GPU NVIDIA Ada RTX y las CPU más nuevas de Intel.

Las nuevas estaciones de trabajo son ideales para hacer trazado de rayos, simulación física, gráficos neuronales e IA generativa.

Estarán disponibles en Boxx, Dell, HP y Lenovo a partir de marzo.

Segundo, nuevos servidores NVIDIA OVX optimizados para Omniverse.

OVX consta de GPU de servidor L40 Ada RTX y nuestro nuevo BlueField-3.

Los servidores OVX estarán disponibles en Dell, HPE, Quanta, Gigabyte, Lenovo y Supermicro.

Cada capa de la pila de Omniverse, incluidos los chips, los sistemas, las redes y el software, son invenciones nuevas.

Construir y operar la computadora Omniverse requiere un equipo de TI sofisticado.

Vamos a hacer que Omniverse sea rápido y fácil de escalar y participar.

Vamos a ver.

Las industrias más grandes del mundo están compitiendo para digitalizar sus procesos físicos.

Hoy, ese es un reto complejo.

NVIDIA Omniverse Cloud es una plataforma como servicio que brinda acceso instantáneo y seguro a las API administradas de Omniverse Cloud,

flujos de trabajo y aplicaciones personalizables que se ejecutan en NVIDIA OVX.

Los equipos empresariales acceden al conjunto de servicios administrados a través del navegador web Omniverse Launcher

o a través de una integración personalizada.

Una vez en Omniverse Cloud, los equipos empresariales pueden acceder, ampliar y publicar instantáneamente aplicaciones fundamentals.

y flujos de trabajo - para ensamblar y componer mundos virtuales -

generar datos para entrenar IA de percepción -

probar y validar vehículos autónomos -

o simular robots autónomos…

…acceder y publicar datos compartidos en Omniverse Nucleus.

Diseñadores e ingenieros trabajando con sus herramientas de disenio de terceras partes en RTX workstation.

Paralelamente publicar ediciones en Nucleus

Luego, cuando esté listo para iterar o ver su modelo integrado en Omniverse,

puede simplemente abrir un navegador web e iniciar sesión.

A medida que escalan los proyectos y los equipos, Omniverse Cloud ayuda a optimizar los costos

mediante el aprovisionamiento de recursos informáticos y licencias según sea necesario.

Y los nuevos servicios y actualizaciones son automáticamente provisto de actualizaciones en tiempo real.

Con Omniverse Cloud, las empresas pueden acelerar la colaboración y la digitalización unificada

en los principales flujos de trabajo industriales, aumentando la eficiencia, reducción de costes y residuos,

y acelerar el camino hacia la innovación.

¡Nos vemos en Omniverso!

Hoy anunciamos NVIDIA Omniverse Cloud, un servicio completamente administrado en la nube.

Nos asociamos con Microsoft para llevar Omniverse Cloud a las industrias del mundo.

Lo alojaremos en Azure, beneficiándonos de la rica cartera de almacenamiento, seguridad, aplicaciones y servicios de Microsoft.

Estamos conectando Omniverse Cloud a la suite de productividad de Microsoft 365, incluidos Teams, OneDrive,

SharePoint y los servicios Azure IoT Digital Twins.

Microsoft y NVIDIA están llevando Omniverse a cientos de millones de usuarios de Microsoft 365 y Azure.

La computación acelerada y la IA han llegado.

Los desarrolladores usan NVIDIA para acelerar y escalar para resolver problemas que antes eran imposibles.

Un desafío abrumador es Net Zero. Cada empresa debe acelerar cada carga de trabajo para recuperar el poder.

La computación acelerada es un desafío de computación de pila completa a escala de centro de datos.

Grace, Grace-Hopper y BlueField-3 son nuevos chips para centros de datos acelerados súper eficientes energéticamente.

Las bibliotecas de aceleración resuelven nuevos desafíos y abren nuevos mercados.

Actualizamos 100 bibliotecas de aceleración, incluidas cuQuantum para computación cuántica, cuOpt para optimización combinatoria

y cuLitho para litografía computacional.

Estamos encantados de asociarnos con TSMC, ASML y Synopsys para ir a 2nm y más allá.

NVIDIA DGX AI Supercomputer es el motor detrás del avance del modelo Generative Large Language.

La supercomputadora DGX H100 AI está en producción y pronto estará disponible

a través de una red en expansión de OEM y socios en la nube en todo el mundo.

La supercomputadora DGX va más allá de la investigación y se convierte en una moderna fábrica de IA.

Cada empresa fabricará inteligencia.

Estamos ampliando nuestro modelo de negocio con NVIDIA DGX Cloud al asociarnos con Microsoft Azure, Google GCP y Oracle OCI

para llevar instantáneamente NVIDIA AI a todas las empresas, desde un navegador.

DGX Cloud ofrece a los clientes lo mejor de NVIDIA y lo mejor de los principales CSP del mundo.

Estamos en el momento del iPhone para la IA.

Las cargas de trabajo de inferencia de IA generativa se han acelerado.

Lanzamos nuestra nueva plataforma de inferencia: cuatro configuraciones, una arquitectura.

L4 para vídeo de IA.

L40 para Omniverse y renderizado de gráficos.

H100 PCIE para escalar la inferencia de modelo de Lenguaje Amplio (LLM).

Grace-Hopper para sistemas de recomendación y bases de datos vectoriales.

La plataforma de inferencia de NVIDIA permite la máxima aceleración y elasticidad del centro de datos.

NVIDIA y Google Cloud están trabajando juntos para implementar una amplia gama de inferencias en cargas de trabajo.

Con esta colaboración, Google GCP es primer nivel en NVIDIA AI en la nube.

NVIDIA AI Foundations es un servicio en la nube, una fundición, para crear modelos de lenguaje personalizados y IA generativa.

NVIDIA AI Foundations comprende servicios de creación de modelos de lenguaje, visualización y biología.

Getty Images y Shutterstock están creando modelos de lenguaje visual personalizados.

Y nos asociamos con Adobe para crear un conjunto de capacidades de inteligencia artificial de próxima generación para el futuro de la creatividad.

Omniverse es el sistema operativo “de digital a físico” para realizar la digitalización industrial.

Omniverse puede unificar el flujo de trabajo de extremo a extremo y digitalizar la industria automotriz de 3 billones de dólares y 14 millones de empleados.

Omniverse está saltando a la nube.

Alojado en Azure, nos asociamos con Microsoft para llevar Omniverse Cloud a las industrias del mundo.

Agradezco a nuestros socios de sistemas, nube y software, investigadores, científicos y,

especialmente, a nuestros increíbles empleados

por construir el ecosistema de computación acelerada de NVIDIA.

Juntos, estamos ayudando al mundo a hacer lo imposible.

¡Que tengan un gran GTC!