NVIDIA - GTC 2023 Keynote with NVIDIA CEO Jensen Huang - Português

🎁Amazon Prime 📖Kindle Unlimited 🎧Audible Plus 🎵Amazon Music Unlimited 🌿iHerb 💰Binance

Por quase quatro décadas,

a Lei de Moore tem sido a dinâmica governante da indústria de computadores,

que por sua vez impactou todos os setores.

O aumento exponencial do desempenho a um custo e potência constantes diminuiu.

No entanto, o avanço da computação foi para a velocidade da luz.

O motor dessa transformação é a computação acelerada, e a fonte de energia é a AI.

A chegada da computação acelerada e da AI é oportuna à medida

que as indústrias lidam com dinâmicas poderosas –

sustentabilidade,

AI generativa

e digitalização.

Sem a Lei de Moore, à medida que a computação avança, o poder do data center dispara

e as empresas lutam para alcançar o Net Zero.

As impressionantes capacidades da AI Generativa

criaram um senso de urgência para as empresas reimaginarem seus produtos e modelos de negócios.

As empresas industriais estão correndo para digitalizar e se reinventar em empresas de tecnologia orientadas por software

– para serem o disruptor,

em vez de tentar alcançá-lo.

Hoje, discutiremos como a computação acelerada e a AI são ferramentas poderosas para enfrentar esses desafios

e envolver as enormes oportunidades à frente.

Compartilharemos novos avanços na plataforma de computação acelerada full-stack da NVIDIA em escala de datacenter.

Revelaremos novos chips e sistemas, bibliotecas de aceleração, serviços em nuvem e AI,

e parcerias que abrem novos mercados.

Bem-vindo ao GTC!

GTC é a nossa conferência para desenvolvedores.

O ecossistema global da NVIDIA abrange 4 milhões de desenvolvedores, 40.000 empresas

e 14.000 startups.

Agradeço nossos patrocinadores Diamond por nos apoiarem e fazerem do GTC 2023 um enorme sucesso.

Estamos muito animados em receber mais de 250.000 de vocês em nossa conferência.

É incrível como o GTC cresceu.

Apenas quatro anos atrás, nossa conferência presencial do GTC teve 8.000 participantes.

No GTC 2023, aprenderemos com líderes como Demis Hassabis da DeepMind,

Valeri Taylor da Argonne Labs

Scott Belsky da Adobe

Paul Debevec da Netflix

Thomas Schulthess da ETH Zurich

e um bate-papo especial que terei com Ilya Sutskever

co-fundador da OpenAI, o criador do ChatGPT.

Temos 650 palestras incríveis com as mentes mais brilhantes da academia e das maiores indústrias do mundo:

Há mais de 70 palestras apenas sobre IA Generativa.

Outras grandes palestras, como modelos multitarefa pré-treinados para robótica…

sessões sobre geração de dados sintéticos, um método importante para o avanço da AI,

incluindo um sobre o uso do Isaac Sim para gerar nuvens de pontos fisicamente baseadas em lidar

diversas palestras sobre gêmeos digitais, desde o uso da AI para povoar fábricas virtuais do futuro,

até a restauração de antigos mosaicos romanos perdidos

ótimos bate-papos sobre instrumentos computacionais, incluindo um telescópio óptico gigante e uma tomografia computadorizada de contagem de fótons

ciência dos materiais, desde a captura de carbono e células solares até a ciência do clima, incluindo o nosso trabalho no Terra-2,

palestras importantes da NVIDIA Research sobre segurança de AI e AV,

da litografia computacional para microchips e da fabricação das menores máquinas

até a AI no Grande Colisor de Hádrons para explicar o universo.

As empresas mais importantes do mundo estão aqui, desde automóveis e transporte,

saúde, manufatura, serviços financeiros,

varejo, vestuário, mídia e entretenimento, telecomunicações e,

claro, as principais empresas de AI do mundo.

O objetivo do GTC é inspirar o mundo na arte do que é possível com a computação acelerada,

e também celebrar as conquistas dos cientistas e pesquisadores que a utilizam.

Sou um tradutor.

Transformando texto em descoberta criativa,

movimento em animação,

e direção para a ação.

Eu sou um curador.

Explorando os blocos de construção que nos tornam únicos

modelando novas ameaças antes que elas aconteçam

e buscando a cura para mantê-las longe.

Eu sou um visionário.

Gerando novos milagres médicos

e dando-nos uma nova perspectiva brilhante sobre o nosso Sol

para nos mantermos seguros aqui na Terra.

Eu sou um navegador.

Descobrindo um momento único em um mar de conteúdo

estamos anunciando a próxima geração

e o cenário perfeito para qualquer história.

Eu sou um criador.

Criando experiências 3D a partir de snapshots

e adicionando novos níveis de realidade ao nosso eu virtual.

Eu sou um ajudante.

Dando vida a brainstorms

compartilhando a sabedoria de um milhão de desenvolvedores

E transformando ideias em mundos virtuais.

Construa a floresta do norte.

Eu até ajudei a escrever esse roteiro,

dei vida às palavras

e compus a melodia.

Eu sou AI.

Trazido à vida pela NVIDIA, deep learning e mentes brilhantes em todos os lugares.

A NVIDIA inventou a computação acelerada para resolver problemas que os computadores normais não conseguem.

A computação acelerada não é fácil

requer a invenção full-stack de chips, sistemas, redes

e bibliotecas de aceleração para a refatoração das aplicações.

Cada pilha otimizada acelera um domínio da aplicação,

desde gráficos, imagens, dinâmica de partículas ou fluidos

e física quântica até o processamento de dados e aprendizado de máquina.

Uma vez acelerada, a aplicação pode desfrutar de uma aceleração incrível, bem como de um aumento de escala em muitos computadores.

A combinação da aceleração e do aumento de escala nos permitiu alcançar um milhão de X

para muitas aplicações na última década

ajudando a resolver problemas anteriormente impossíveis.

Embora existam muitos exemplos, o mais famoso é o deep learning.

Em 2012, Alex Kerchevsky, Ilya Suskever e Geoff Hinton precisavam de um computador insanamente rápido

para treinar o modelo de visão computacional AlexNet.

Os pesquisadores treinaram o AlexNet com 14 milhões de imagens na GeForce GTX 580,

processando 262 quatrilhões de operações de ponto flutuante,

e o modelo treinado venceu o desafio ImageNet por uma ampla margem e deu início ao Big Bang da AI.

Uma década depois, o modelo de transformador foi inventado.

E Ilya, agora na OpenAI, treinou o modelo de linguagem grande GPT-3 para prever a próxima palavra.

323 sextilhões de operações de ponto flutuante foram necessárias para treinar o GPT-3.

Um milhão de vezes mais operações de ponto flutuante do que treinar o AlexNet.

O resultado desta vez foi o ChatGPT, a AI famosa no mundo todo.

Uma nova plataforma de computação foi inventada.

O momento iPhone da AI chegou.

A computação acelerada e a AI chegaram.

As bibliotecas de aceleração estão no centro da computação acelerada.

Essas bibliotecas se conectam a aplicativos que se conectam às indústrias do mundo, formando uma rede de redes.

Após três décadas em construção, vários milhares de aplicativos são agora acelerados pela NVIDIA,

com bibliotecas em quase todos os domínios da ciência e da indústria.

Todas as GPUs NVIDIA são compatíveis com CUDA, fornecendo uma grande base de instalação e alcance significativo para os desenvolvedores.

Uma grande variedade de aplicativos acelerados atrai usuários finais, o que cria um grande mercado para provedores de serviços em nuvem

e fabricantes de computadores atenderem.

Um grande mercado oferece bilhões em P&D para alimentar seu crescimento.

A NVIDIA estabeleceu o ciclo virtuoso da computação acelerada.

Das 300 bibliotecas de aceleração e 400 modelos de AI que abrangem ray tracing e renderização neural,

ciências físicas, terrestres e da vida, física e química quânticas, visão computacional,

processamento de dados, machine learning e AI, atualizamos 100

este ano que aumentam o desempenho e os recursos de toda a nossa base instalada.

Deixe-me destacar algumas bibliotecas de aceleração que resolvem novos desafios e abrem novos mercados.

As indústrias automobilística e aeroespacial usam CFD para simulação de turbulência e aerodinâmica.

A indústria eletrônica usa CFD para projetos de gerenciamento térmico.

Este é o slide da Cadence sobre seu novo solucionador de CFD acelerado por CUDA.

A um custo de sistema equivalente, o NVIDIA A100 tem 9X a taxa de transferência dos servidores CPU.

Ou, com uma taxa de transferência de simulação equivalente, a NVIDIA tem um custo 9X menor ou consome 17X menos energia.

Ansys, Siemens, Cadence e outros solucionadores CFD líderes agora são acelerados por CUDA.

Em todo o mundo, o CAE industrial usa quase 100 bilhões de horas de núcleo de CPU anualmente.

A aceleração é a melhor maneira de recuperar o poder e alcançar a sustentabilidade e o Net Zero.

A NVIDIA tem parceria com a comunidade global de pesquisa em computação quântica.

A plataforma NVIDIA Quantum consiste em bibliotecas e sistemas para os pesquisadores avançarem modelos de programação quântica,

arquiteturas de sistemas e algoritmos.

cuQuantum é uma biblioteca de aceleração para simulações de circuitos quânticos.

IBM Qiskit, Google Cirq, Baidu Quantum Leaf, QMWare, QuEra, Xanadu Pennylane, Agnostiq e AWS Bracket

integraram o cuQuantum em suas estruturas de simulação.

Open Quantum CUDA é o nosso modelo de programação híbrido GPU-Quantum.

IonQ, ORCA Computing, Atom, QuEra, Oxford Quantum Circuits, IQM, Pasqal, Quantum Brilliance, Quantinuum, Rigetti,

Xanadu e Anyon integraram o Open Quantum CUDA.

A correção de erros em um grande número de qubits é necessária para recuperar dados de ruído quântico e decoerência.

Hoje, estamos anunciando um link de controle quântico, desenvolvido em parceria com a Quantum Machines,

que conecta GPUs NVIDIA a um computador quântico para fazer a correção de erros em velocidades extremamente altas.

Embora os computadores quânticos comerciais ainda estejam a uma década ou duas de distância, estamos muito felizes em apoiar essa grande e vibrante

comunidade de pesquisa com o NVIDIA Quantum.

Empresas em todo o mundo usam o Apache Spark para processar data lakes e armazéns,

consultas SQL, análise de gráficos e sistemas de recomendação.

O Spark-RAPIDS é o mecanismo acelerado de processamento de dados Apache Spark da NVIDIA.

O processamento de dados é a principal carga de trabalho dos gastos mundiais de computação em nuvem avaliada em $500 bilhões.

O Spark-RAPIDS agora acelera as principais plataformas de processamento de dados em nuvem, incluindo GCP Dataproc,

Amazon EMR, Databricks e Cloudera.

Os sistemas de recomendação usam bancos de dados vetoriais para armazenar, indexar, pesquisar e recuperar conjuntos de dados massivos de dados não estruturados.

Um novo caso de uso importante de bancos de dados vetoriais são modelos de linguagem grandes para recuperar fatos específicos de domínio ou proprietários

que podem ser consultados durante a geração de texto.

Estamos introduzindo uma nova biblioteca, RAFT, para acelerar a indexação, carregar os dados

e recuperar um lote de vizinhos para uma única consulta.

Estamos trazendo a aceleração da RAFT para o FAISS AI Similarity Search de código aberto da Meta, o banco de dados vetorial de código aberto Milvus

usado por mais de 1.000 organizações e o Redis com mais de 4B de docker pulls.

Os bancos de dados vetoriais serão essenciais para as organizações que constroem modelos proprietários de linguagem grande.

Vinte e dois anos atrás, os cientistas de pesquisa operacional Li e Lim publicaram uma série de problemas desafiadores de coleta e entrega.

A PDP aparece na fabricação, transporte, varejo e logística, e até mesmo no socorro a desastres.

PDP é uma generalização do Problema do Caixeiro Viajante (PCV) e é NP-difícil,

o que significa que não há um algoritmo eficiente para encontrar uma solução exata.

O tempo de solução cresce fatorialmente à medida que o tamanho do problema aumenta.

Usando um algoritmo de evolução e computação acelerada para analisar 30 bilhões de movimentos por segundo,

o NVIDIA cuOpt quebrou o recorde mundial e descobriu a melhor solução para o desafio de Li&Lim.

A AT&T envia rotineiramente 30.000 técnicos para atender 13 milhões de clientes em 700 zonas geográficas.

Hoje, rodando em CPUs, a otimização de despacho da AT&T acontece da noite para o dia.

A AT&T quer encontrar uma solução de despacho em tempo real que otimize continuamente as necessidades urgentes do cliente

e a satisfação geral do cliente, enquanto se ajusta a atrasos e novos incidentes que surjam.

Com o cuOpt, a AT&T pode encontrar uma solução 100X mais rápida e atualizar seu despacho em tempo real.

A AT&T adotou um conjunto completo de bibliotecas NVIDIA AI.

Além do Spark-RAPIDS e do cuOPT, eles estão usando o Riva para AI conversacional e o Omniverse para avatares digitais.

A AT&T está utilizando a computação acelerada e a AI da NVIDIA para sustentabilidade, economia de custos e novos serviços.

cuOpt também pode otimizar os serviços logísticos. 400 bilhões de encomendas são entregues a 377 bilhões de paradas a cada ano.

Deloitte, Capgemini, Softserve, Accenture e Quantiphi estão usando o NVIDIA cuOpt para ajudar os clientes a otimizar as operações.

A plataforma de inferência da NVIDIA consiste em três SDKs de software.

NVIDIA TensorRT é o nosso tempo de execução de inferência que otimiza para a GPU de destino.

O NVIDIA Triton é uma inferência de data center multi-framework que serve software e suporta GPUs e CPUs.

Microsoft Office e Teams, Amazon, American Express e o Serviço Postal dos EUA

estão entre os 40.000 clientes que usam o TensorRT e o Triton.

A Uber usa o Triton para atender a centenas de milhares de previsões de ETA por segundo.

Com mais de 60 milhões de usuários diários, a Roblox usa o Triton para fornecer modelos para recomendações de jogos,

criar avatares e moderar o conteúdo e os anúncios do marketplace.

Estamos lançando alguns ótimos novos recursos - suporte ao analisador de modelos para conjuntos de modelos, serviço de vários modelos simultâneos

e inferência multi-GPU e multi-nó para modelos de linguagens grandes GPT-3.

O NVIDIA Triton Management Service é o nosso novo software que automatiza o dimensionamento e a orquestração

de instâncias de inferência Triton em um data center.

O Triton Management Service ajudará você a melhorar a taxa de transferência e a eficiência de custos da implantação de seus modelos.

50-80% dos pipelines de vídeo em nuvem são processados em CPUs,

consumindo energia e custo e adicionando latência.

O CV-CUDA para visão computacional e VPF para processamento de vídeo são novas bibliotecas de aceleração em escala de nuvem.

O CV-CUDA inclui 30 operadores de visão computacional para detecção, segmentação e classificação.

VPF é uma biblioteca de aceleração de codificação e decodificação de vídeo em Python.

A Tencent usa CV-CUDA e VPF para processar 300.000 vídeos por dia.

A Microsoft usa CV-CUDA e VPF para processar a pesquisa visual.

A Runway é uma empresa super interessante que usa CV-CUDA e VPF para processar vídeo

para seu serviço de edição de vídeo de AI Generativo na nuvem.

Hoje, 80% do tráfego da internet é de vídeos.

O conteúdo de vídeo gerado pelas pessoas está impulsionando um crescimento significativo e consumindo enormes quantidades de energia.

Devemos acelerar todo o processamento de vídeo e recuperar a energia.

O CV-CUDA e o VPF estão em acesso antecipado.

A computação acelerada da NVIDIA ajudou a alcançar um marco genômico

agora, os médicos podem extrair sangue e sequenciar o DNA de um paciente na mesma visita.

Em outro marco, os instrumentos movidos pela NVIDIA reduziram o custo do sequenciamento completo do genoma para apenas U$100.

A genômica é uma ferramenta crítica na biologia sintética com aplicações que vão desde a descoberta

de medicamentos e agricultura até a produção de energia.

O NVIDIA Parabricks é um conjunto de bibliotecas aceleradas por AI para análise genômica de ponta a ponta na nuvem ou no instrumento.

O NVIDIA Parabricks está disponível em todas as plataformas de nuvem pública e genômica, como Terra, DNAnexus e FormBio.

Hoje, anunciamos o Parabricks 4.1, e rodaremos em instrumentos genômicos acelerados

da PacBio, Oxford Nanopore, Ultima, Singular, BioNano e Nanostring.

O mercado mundial de instrumentos médicos de U$250 bilhões está sendo transformado.

Os instrumentos médicos serão definidos por software e alimentados por AI.

NVIDIA Holoscan é uma biblioteca de software para sistemas de processamento de sensores em tempo real.

Mais de 75 empresas estão desenvolvendo instrumentos médicos no Holoscan.

Hoje, anunciamos que a Medtronic - líder mundial em instrumentos médicos - e a NVIDIA estão construindo sua plataforma de AI

para dispositivos médicos definidos por software.

Essa parceria criará uma plataforma comum para os sistemas da Medtronic, que vão desde a navegação cirúrgica

até a cirurgia assistida por robô.

Hoje, a Medtronic anunciou que seu sistema GI Genius de próxima geração com AI para detecção precoce do câncer de cólon,

é construído no NVIDIA Holoscan e será lançado por volta do final deste ano.

A indústria de chips é a base de quase todas as indústrias.

A fabricação de chips exige extrema precisão, produzindo características 1.000 vezes menores do que uma bactéria

e da ordem de um único átomo de ouro ou uma fita de DNA humano.

A litografia, o processo de criação de padrões sobre uma matriz, é o início do processo de fabricação de chips

e consiste em duas etapas – confecção de fotomáscaras e projeção de padrões.

É fundamentalmente um problema de imagem nos limites da física.

A fotomáscara é como um estêncil de um chip. A luz é bloqueada ou passada através da

máscara na matriz para criar o padrão.

A luz é produzida pelo sistema de litografia ultravioleta extrema ASML EUV.

Cada sistema custa mais de um quarto de bilhão de dólares.

O ASML EUV usa uma maneira radical de criar luz.

Pulsos de laser disparando 50.000 vezes por segundo em uma gota de estanho, vaporizando-o, criando um plasma que emite luz EUV de 13,5nm,

quase raios-X.

Espelhos multicamadas guiam a luz até a máscara.

Os refletores multicamadas no retículo da máscara aproveitam os padrões de interferência da luz de 13,5nm

para criar recursos mais finos em até 3nm.

Magia.

A matriz é posicionada dentro de um quarto de nanômetro e alinhada 20.000 vezes por segundo para se ajustar a qualquer vibração.

O passo antes da litografia é igualmente milagroso.

A litografia computacional aplica algoritmos de física inversa para prever os padrões na máscara

que produzirão os padrões finais na matriz.

Na verdade, os padrões na máscara não se assemelham às características finais.

A litografia computacional simula as equações de Maxwell do comportamento da luz que passa pela óptica

e interage com fotorresistentes.

A litografia computacional é a maior carga de trabalho computacional no projeto e na fabricação de chips,

consumindo dezenas de bilhões de horas de CPU anualmente.

Os enormes data centers funcionam 24 horas por dia, 7 dias por semana, para criar retículos usados em sistemas de litografia.

Esses data centers fazem parte do CAPEX anual de quase U$ 200 bilhões investidos pelos fabricantes de chips.

A litografia computacional está crescendo rapidamente à medida que a complexidade do algoritmo aumenta,

permitindo que a indústria vá para 2nm e além.

A NVIDIA está anunciando hoje o cuLitho, uma biblioteca para litografia computacional.

O cuLitho, um enorme corpo de trabalho que levou quase quatro anos, e com colaborações estreitas com TSMC,

ASML e Synopsys, acelera a litografia computacional em mais de 40X.

Existem 89 retículas para o NVIDIA H100.

Rodando em CPUs, um único retículo atualmente leva duas semanas para ser processado.

O cuLitho, executado em GPUs, pode processar um retículo em um único turno de 8 horas.

Adotando a aceleração por cuLitho, a TSMC pode reduzir seus 40.000 servidores de CPU usados para litografia computacional

para apenas 500 sistemas DGX H100, reduzindo a energia de 35MW para apenas 5MW.

Com o cuLitho, a TSMC pode reduzir o tempo de ciclo do protótipo, aumentar a produtividade,

reduzir a pegada de carbono de sua fabricação e se preparar para os 2nm e além.

A TSMC iniciará a qualificação do cuLitho para produção a partir de junho.

Toda indústria precisa acelerar cada carga de trabalho para que possamos recuperar energia e fazer mais com menos.

Nos últimos dez anos, a computação em nuvem cresceu 20% ao ano em uma enorme indústria de U$1 trilhão.

Cerca de 30 milhões de servidores emCPU fazem a maior parte do processamento.

Há desafios no horizonte.

À medida que a Lei de Moore termina, o aumento do desempenho da CPU também gera o aumento da energia.

E a ordem para diminuir as emissões de carbono vai na contramão da necessidade de aumentar os data centers.

O crescimento da computação em nuvem é limitado em termos de energia.

Em primeiro lugar, os data centers devem acelerar cada carga de trabalho.

A aceleração recuperará a energia.

A energia economizada pode alimentar um novo crescimento.

O que não for acelerado será processado em CPUs.

O ponto de design da CPU para datacenters acelerados na nuvem difere fundamentalmente do passado.

Em serviços de AI e nuvem, a computação acelerada descarrega cargas de trabalho paralelizáveis e as CPUs processam outras cargas de trabalho,

como o RPC da Web e consultas de banco de dados.

Projetamos a CPU Grace para um mundo de AI e cloud-first, onde as cargas de trabalho de AI são aceleradas por GPU,

e Grace se destaca na execução de thread únicas e no processamento de memória.

Não se trata apenas do chip da CPU. Os operadores de datacenter otimizam a taxa de transferência e o custo total de propriedade de todo o datacenter.

Projetamos Grace para alta eficiência energética em escala de datacenter em nuvem.

Grace possui 72 núcleos Arm conectados por uma malha coerente escalável on-chip de altíssima velocidade que oferece 3,2 TB/s

de largura de banda transversal.

Grace Superchip conecta 144 núcleos entre duas matrizes de CPU em uma interface coerente chip-to-chip de baixa potência de 900 GB/seg.

O sistema de memória é a memória LPDDR de baixa potência, como usada em celulares, que aprimoramos especialmente para uso em datacenters.

Ele oferece 1 TB/s e 2,5X a largura de banda dos sistemas atuais com 1/8 da energia.

Todo o módulo Grace Superchip de 144 núcleos com 1TB de memória tem apenas 5x8 polegadas.

É uma potência tão baixa que pode ser refrigerada a ar.

Este é o módulo de computação com resfriamento passivo.

Dois computadores Grace Superchip podem caber em um único servidor refrigerado a ar de 1U.

O desempenho e a eficiência energética de Grace são excelentes para aplicações de computação científica e em nuvem.

Testamos Grace em um popular benchmark do Google, que testa a rapidez com que os microsserviços em nuvem se comunicam,

e no pacote Hi-Bench que testa o processamento de dados com uso intensivo de memória do Apache Spark.

Esses tipos de cargas de trabalho são fundamentais para datacenters em nuvem.

Nos microsserviços, Grace é 1,3X mais rápida do que a média das CPUs x86 de última geração,

e 1,2X mais rápida no processamento de dados.

E esse maior desempenho é alcançado usando apenas 60% da energia medida no nó completo do servidor.

Os CSPs podem equipar um data center com energia limitada com 1,7X mais servidores Grace, cada um oferecendo uma taxa de transferência 25% maior.

Na iso-power, Grace dá aos CSPs 2X a oportunidade de crescimento.

Grace vem aprendendo com amostras.

E Asus, Atos, Gigabyte, HPE, QCT, Supermicro, Wistron e ZT estão construindo sistemas agora.

Em um data center moderno definido por software, o sistema operacional que faz a virtualização, rede, armazenamento e segurança pode

consumir quase metade dos núcleos de CPU do datacenter e a mesma energia associada.

Os datacenters devem acelerar cada carga de trabalho para recuperar energia e liberar CPUs para cargas de trabalho geradoras de receita.

O NVIDIA BlueField descarrega e acelera o sistema operacional do datacenter e o software de infraestrutura.

Mais de 24 parceiros do ecossistema, incluindo Check Point, Cisco, DDN, Dell EMC,

Juniper, Palo Alto Networks, Red Hat e VMWare,

usam a tecnologia de aceleração de datacenter do BlueField para executar suas plataformas de software com mais eficiência.

O BlueField-3 está em produção e é adotado pelos principais provedores de serviços em nuvem, Baidu, CoreWeave, JD.com, Microsoft Azure,

Oracle OCI e Tencent Games, para acelerar suas nuvens.

A computação acelerada da NVIDIA começa com o DGX – o supercomputador de AI

o motor por trás do avanço do Large Language Model.

Eu entreguei em mãos o primeiro DGX do mundo para a OpenAI.

Desde então, metade das empresas da Fortune 100 instalaram supercomputadores DGX AI.

O DGX tornou-se o instrumento essencial da AI.

A GPU do DGX é composta por oito módulos H100.

O H100 tem um Transformer Engine projetado para processar modelos como o incrível ChatGPT,

que significa Generative Pre-trained Transformers.

Os oito módulos H100 são conectados por NVLINK através de switches NVLINK para permitir transações totalmente sem bloqueio.

Os oito H100 funcionam como uma GPU gigante.

O tecido de computação é um dos sistemas mais vitais do supercomputador de AI.

O NVIDIA Quantum InfiniBand de latência ultrabaixa de 400 Gbps,

com processamento em rede,

conecta centenas e milhares de nós DGX

a um supercomputador de AI.

O NVIDIA DGX H100 é o modelo para clientes que constroem infraestrutura de AI em todo o mundo.

Agora, ele está em plena produção.

Estou entusiasmado que a Microsoft anunciou que o Azure está abrindo visualizações privadas para seu supercomputador H100 AI.

Outros sistemas e serviços em nuvem virão em breve da Atos, AWS, Cirrascale, CoreWeave, Dell, Gigabyte, Google, HPE,

Lambda Labs, Lenovo, Oracle, Quanta e SuperMicro.

O mercado de supercomputadores DGX AI cresceu significativamente.

Originalmente usados como um instrumento de pesquisa de AI, os supercomputadores DGX AI estão se expandindo para operações,

funcionando 24 horas por dia, 7 dias por semana, para refinar dados e processar AI.

Os supercomputadores DGX são fábricas modernas de AI.

Estamos no momento iPhone da AI.

As start-ups estão correndo para construir produtos e modelos de negócios disruptivos, enquanto os encarregados estão procurando responder.

A AI generativa desencadeou um senso de urgência em empresas em todo o mundo para desenvolver estratégias de AI.

Os clientes precisam acessar o NVIDIA AI de forma mais fácil e rápida.

Estamos anunciando o NVIDIA DGX Cloud por meio de parcerias com o Microsoft Azure, o Google GCP e o Oracle OCI

para levar os supercomputadores NVIDIA DGX AI a todas as empresas, instantaneamente, a partir de um navegador.

O DGX Cloud é otimizado para executar o NVIDIA AI Enterprise, o pacote de bibliotecas de aceleração líder mundial

para desenvolvimento e implantação de AI de ponta a ponta.

O DGX Cloud oferece aos clientes o melhor da NVIDIA AI e o melhor dos principais provedores de serviços em nuvem do mundo.

Essa parceria traz o ecossistema da NVIDIA para os CSPs, ao mesmo tempo em que amplia a escala e o alcance da NVIDIA.

Essa parceria ganha-ganha oferece aos clientes que estão correndo para envolver a AI Generativa um acesso instantâneo à NVIDIA em nuvens de escala global.

Estamos entusiasmados com a velocidade, a escala e o alcance dessa extensão de nuvem do nosso modelo de negócios.

O Oracle Cloud Infrastructure, OCI, será o primeiro NVIDIA DGX Cloud.

OCI tem um excelente desempenho. Eles têm uma malha de computação de duas camadas e uma rede de gerenciamento.

O CX-7 da NVIDIA, com o melhor RDMA do setor, é o tecido da computação.

E o BlueField-3 será o processador de infraestrutura para a rede de gerenciamento.

A combinação é um supercomputador DGX AI de última geração que pode ser oferecido como um serviço de nuvem multilocatário.

Temos 50 clientes corporativos no acesso antecipado, abrangendo internet e software de consumo, saúde,

mídia e entretenimento e serviços financeiros.

ChatGPT, Stable Diffusion, DALL-E e Midjourney despertaram o mundo para a AI Generativa.

A facilidade de uso e os recursos impressionantes desses aplicativos atraíram mais de cem milhões de usuários em apenas alguns meses

  • o ChatGPT é o aplicativo que mais cresce na história.

Nenhum treinamento é necessário. Basta pedir a esses modelos que façam alguma coisa.

Os comandos podem ser precisos ou ambíguos. Se não for claro,

através da conversa, o ChatGPT aprende suas intenções.

O texto gerado é muito impressionante.

O ChatGPT pode compor memorandos e poemas, parafrasear um trabalho de pesquisa, resolver problemas de matemática,

destacar pontos-chave de um contrato e até mesmo codificar programas de software.

ChatGPT é um computador que não só executa software, mas escreve software.

Muitos avanços levaram à AI Generativa.

Os transformadores aprendem o contexto e o significado a partir das relações e dependências dos dados, em paralelo e em larga escala.

Isso levou a Modelos de Linguagem Grande que aprendem com tantos dados

que podem executar tarefas sem treinamento explícito.

E os modelos de difusão, inspirados na física, aprendem sem supervisão a gerar imagens.

Em pouco mais de uma década, passamos de tentar reconhecer gatos para gerar imagens realistas

de um gato em um traje espacial

andando na lua.

A AI generativa é um novo tipo de computador – onde programamos em linguagem humana.

Essa habilidade tem implicações profundas. Todo mundo pode direcionar um computador para resolver problemas.

Este era um domínio apenas para programadores de computador.

Agora, todo mundo é um programador.

A AI generativa é uma nova plataforma de computação como o PC, a internet, o celular e a nuvem.

E, como nas eras de computação anteriores, os pioneiros estão criando novos aplicativos

e fundando novas empresas para capitalizar a capacidade da AI Generativa para automatizar e co-criar.

O Debuild permite que os usuários projetem e implantem aplicativos da Web apenas explicando o que desejam.

Grammarly é um assistente de escrita que considera o contexto.

Tabnine ajuda os desenvolvedores a escrever código.

Omnekey gera anúncios personalizados e texto.

Kore.ai é um agente de atendimento ao cliente virtual.

Jasper gera material de marketing. Jasper escreveu quase 5 bilhões de palavras,

reduzindo o tempo para gerar o primeiro rascunho em 80%.

Insilico usa AI para acelerar a criação de medicamentos.

Absci está usando AI para prever anticorpos terapêuticos.

A AI Generativa reinventará quase todos os setores.

Muitas empresas podem usar uma das excelentes APIs de AI Generativa que estão chegando ao mercado.

Algumas empresas precisam construir modelos personalizados, com seus dados proprietários, que são especialistas em suas áreas.

Elas precisam configurar grades de proteção de uso e refinar seus modelos para se alinharem

aos requisitos de segurança, privacidade e proteção de sua empresa.

A indústria precisa de uma fundição, uma TSMC, para Modelos de Linguagem Grande personalizados.

Hoje, anunciamos o NVIDIA AI Foundations,

um serviço de nuvem para clientes que precisam criar, refinar e operar

Modelos de Linguagem Grande personalizados e AI Generativa

treinada com seus dados proprietários

e para suas tarefas específicas de domínio.

O NVIDIA AI Foundations compreende serviços

de modelagem de Linguagem, Visual e Biologia.

O NVIDIA Nemo serve para a construção de modelos generativos text-to-text

de linguagem personalizada.

Os clientes podem trazer seu modelo ou começar com os modelos de linguagem pré-treinados do Nemo, que variam de GPT-8, GPT-43

e GPT-530 bilhões de parâmetros.

Durante todo o processo, os especialistas em AI da NVIDIA trabalharão com você, desde a criação do seu modelo proprietário até as operações.

Vamos dar uma olhada.

Modelos generativos, como o modelo fundamental 43B da NVIDIA, aprendem treinando em bilhões de frases

e trilhões de palavras.

À medida que o modelo converge, ele começa a entender as relações entre as palavras e seus conceitos subjacentes,

capturados nos pesos no espaço de incorporação do modelo.

Os modelos de transformadores usam uma técnica chamada autoatenção: um mecanismo projetado para aprender dependências e relacionamentos

dentro de uma sequência de palavras.

O resultado é um modelo que fornece a base para uma experiência semelhante ao ChatGPT.

Esses modelos generativos exigem grandes quantidades de dados,

profundo conhecimento em AI para processamento de dados e treinamento distribuído,

além de computação em larga escala para treinar, implantar e se manter no ritmo da inovação.

As empresas podem acelerar sua adoção de AI Generativa

com o serviço NVIDIA NeMo rodando no NVIDIA DGX Cloud.

O caminho mais rápido é começar com um dos modelos de fundação pré-treinados

de última geração da NVIDIA.

Com o serviço NeMo, as organizações podem facilmente personalizar um modelo

com p-tuning para ensiná-lo habilidades especializadas,

como resumir documentos financeiros,

criar conteúdo específico de uma marca

e compor e-mails com estilos de escrita personalizados.

Conectar o modelo a uma base de conhecimento proprietária

garante que as respostas sejam precisas, atuais

e citadas para seus negócios.

Em seguida, eles podem fornecer grades de proteção adicionando lógica

e monitorando entradas, saídas, toxicidade e limites de viés

para que ele opere dentro de um domínio especificado

e evite respostas indesejadas.

Depois de colocar o modelo para funcionar, ele pode melhorar continuamente

com o aprendizado por reforço com base nas interações do usuário.

E o playground do NeMo está disponível para prototipagem rápida, antes de migrar para a API na nuvem

para avaliação em maior escala e integração de aplicativos.

Inscreva-se hoje mesmo no serviço NVIDIA NeMo

para codificar o conhecimento da sua empresa em um

modelo de AI personalizado que você controla.

Picasso é um serviço de modelagem de linguagem visual para clientes que desejam criar modelos personalizados

treinados com conteúdo licenciado ou proprietário.

Vamos dar uma olhada.

A IA Generativa está transformando a forma como o conteúdo visual é criado.

Mas para alcançar todo o seu potencial, as empresas precisam de enormes quantidades de dados limpos por direitos autorais, especialistas em AI e um supercomputador de AI.

O NVIDIA Picasso é um serviço em nuvem para criar e implantar aplicativos

generativos de imagem, vídeo e 3D alimentados por AI.

Com ele, empresas, ISVs e provedores de serviços

podem implantar seus próprios modelos.

Estamos trabalhando com parceiros de primeira linha para trazer

recursos de AI Generativa para todas as indústrias.

As organizações também podem começar com os modelos do NVIDIA Edify

e treiná-los com seus dados para criar um produto ou serviço.

Esses modelos geram imagens, vídeos e ativos 3D.

Para acessar modelos de AI generativos,

os aplicativos enviam uma chamada de API com comandos de texto

e metadados para o Picasso.

Picasso usa o modelo apropriado em execução no NVIDIA DGX Cloud

para enviar de volta o ativo gerado para o aplicativo.

Isso pode ser uma imagem fotorrealista, um vídeo de alta resolução ou uma geometria 3D detalhada.

Os ativos gerados podem ser importados para ferramentas de edição ou para o NVIDIA Omniverse para criar mundos virtuais fotorrealistas,

aplicativos de metaverso e simulações de gêmeos digitais.

Com os serviços NVIDIA Picasso em execução no NVIDIA DGX Cloud,

você pode simplificar o treinamento, a otimização e a inferência

necessários para criar aplicativos de AI generativos personalizados.

Veja como o NVIDIA Picasso pode trazer recursos transformadores de AI generativa para seus aplicativos.

Estamos muito felizes que a Getty Images use o serviço Picasso para construir modelos generativos para construir modelos generativos Edify-image e Edify-video

treinados em sua rica biblioteca de imagens profissionais e ativos de vídeo licenciados de forma responsável.

As empresas poderão criar imagens e vídeos personalizados com simples comandos de texto ou imagem.

A Shutterstock está desenvolvendo um modelo generativo Edify-3D

treinado em sua biblioteca profissional de recursos de imagem, 3D e vídeo.

A Shutterstock ajudará a simplificar a criação de ativos 3D para produção criativa, gêmeos digitais e colaboração virtual,

tornando esses fluxos de trabalho mais rápidos e fáceis para as empresas implementarem.

E estou entusiasmado em anunciar uma expansão significativa da nossa parceria de longa data com a Adobe

para criar um conjunto de recursos de AI de próxima geração para o futuro da criatividade;

integrando a AI generativa nos fluxos de trabalho diários de profissionais de marketing e criativos.

Os novos modelos de AI Generativa serão otimizados

para criação de imagens, vídeo, 3D e animação.

Para proteger os direitos dos artistas, a Adobe está fazendo esse desenvolvimento focada na viabilidade comercial e na atribuição

adequada de conteúdo com a Iniciativa de Autenticidade de Conteúdo da Adobe.

Nosso terceiro domínio de linguagem é a biologia.

A descoberta de medicamentos é uma indústria de quase $2T,

com $250 bilhões dedicados a P&D.

Clara da NVIDIA é um framework de aplicativos de saúde para imagens,

instrumentos, genômica e descoberta de medicamentos.

A indústria agora está pulando para a AI generativa para descobrir alvos de doenças,

projetar novas moléculas ou medicamentos à base de proteínas e prever o comportamento dos medicamentos no corpo.

Insilico Medicine, Exscientia, Absci e Evozyme estão entre as centenas de novas start-ups de descoberta de medicamentos por AI.

Várias descobriram novos alvos ou candidatos a medicamentos e iniciaram ensaios clínicos em humanos.

A BioNemo ajuda os pesquisadores a criar,

ajustar e servir modelos personalizados com seus dados proprietários.

Vamos dar uma olhada.

Existem três estágios-chave para a descoberta:

descobrir a biologia que causa a doença,

projetar novas moléculas - sejam elas moléculas pequenas, proteínas ou anticorpos

e, finalmente, rastrear como essas moléculas interagem umas com as outras.

Hoje, a AI Generativa está transformando cada etapa do processo de descoberta de medicamentos.

O NVIDIA BioNeMo Service fornece modelos de

AI generativos de última geração para a descoberta de medicamentos.

Disponível como um serviço em nuvem, ele fornece acesso instantâneo e fácil a fluxos de trabalho acelerados para descoberta de medicamentos.

O BioNeMo inclui modelos como o AlphaFold, ESMFold e OpenFold

para previsão de estrutura de proteínas 3D.

ProtGPT para geração de proteínas,

ESM1 e ESM2 para previsões de propriedades proteicas,

MegaMolBART e MoFlow para geração de moléculas

e DiffDock para acoplamento molecular.

Equipes de descoberta de medicamentos podem usar os modelos através da interface web do BioNeMo

ou de APIs na nuvem.

Aqui está um exemplo de uso do NVIDIA BioNemo

para uma triagem virtual de descoberta de medicamentos.

Os modelos generativos agora podem ler uma sequência de aminoácidos de proteínas

e, em segundos, prever com precisão a estrutura de uma proteína-alvo.

Eles também podem gerar moléculas com propriedades ADME desejáveis que otimizam a forma como um medicamento se comporta no corpo.

Modelos generativos podem até mesmo prever as interações 3D de uma proteína e molécula,

acelerando a descoberta de candidatos a medicamentos ideais.

Com o NVIDIA DGX Cloud, o BioNeMo também fornece infraestrutura de super computação sob demanda para otimizar e treinar ainda mais os modelos,

economizando tempo e dinheiro valiosos para que as equipes possam se concentrar na descoberta de medicamentos que salvam vidas.

Os novos pipelines de descoberta de medicamentos por AI estão aqui.

Inscreva-se para ter acesso ao NVIDIA BioNeMo Service.

Continuaremos a trabalhar com a indústria para incluir modelos no BioNemo

que abranjam o fluxo de trabalho de ponta a ponta para descoberta de medicamentos e triagem virtual.

Amgen, AstraZeneca, Insilico Medicine, Evozyne, Innophore e Alchemab Therapeutics estão no acesso antecipado do BioNemo.

NVIDIA AI Foundations, um serviço na nuvem e uma plataforma para a construção de modelos de linguagem personalizados e AI Generativa.

Desde a AlexNet, há uma década, o deep learning abriu novos mercados gigantes – direção automatizada, robótica e alto-falantes inteligentes,

e reinventamos a forma como compramos, consumimos notícias e apreciamos música.

Essa é apenas a ponta do iceberg.

A AI está em um ponto de inflexão, já que a AI Generativa iniciou uma nova onda de oportunidades, impulsionando um aumento de função de etapa

nas cargas de trabalho de inferência.

A AI agora pode gerar dados diversos, abrangendo de voz, texto, imagens, vídeo e gráficos 3D a proteínas e produtos químicos.

Projetar um data center em nuvem para processar AI Generativa é um grande desafio.

Por um lado, um único tipo de acelerador é ideal, pois permite que o datacenter seja elástico

e lide com os picos e vales imprevisíveis do tráfego.

Por outro lado, nenhum acelerador pode processar de forma ideal a diversidade de algoritmos, modelos, tipos de dados e tamanhos.

A plataforma One Architecture da NVIDIA oferece aceleração e elasticidade.

Hoje, estamos anunciando nossa nova plataforma de inferência - quatro configurações - uma arquitetura - uma pilha de software.

Cada configuração é otimizada para uma classe de cargas de trabalho.

Para cargas de trabalho de vídeo de AI, temos o L4 otimizado para decodificação e transcodificação de vídeo, moderação de conteúdo de vídeo

e recursos de chamada de vídeo, como substituição de fundo, iluminação, contato visual,

transcrição e tradução de idiomas em tempo real.

A maioria dos vídeos em nuvem hoje é processada em CPUs.

Um servidor L4 de 8 GPUs substituirá mais de cem servidores de CPU de soquete duplo para o processamento de vídeo por AI.

O Snap é um dos principais usuários da NVIDIA AI para visão computacional e sistemas de recomendação.

O Snap usará o L4 para processamento de vídeo AV1, AI generativa e realidade aumentada.

Os usuários do Snapchat fazem o upload de centenas de milhões de vídeos todos os dias.

O Google anunciou hoje a disponibilidade do NVIDIA L4 no GCP.

A NVIDIA e o Google Cloud estão trabalhando para implantar grandes cargas de trabalho no L4.

Deixem-me destacar cinco delas.

Primeiro, estamos acelerando a inferência para modelos de AI generativa para serviços em nuvem, como Wombo e Descript.

Em segundo lugar, estamos integrando o Triton Inference Server com o Google Kubernetes Engine e o VertexAI.

Em terceiro lugar, estamos acelerando o Google Dataproc com o NVIDIA Spark-RAPIDS.

Em quarto lugar, estamos acelerando o AlphaFold e os modelos de linguagem grande UL2 e T5.

E em quinto lugar, estamos acelerando o Immersive Stream do Google Cloud que renderiza experiências 3D e AR.

Com essa colaboração, o Google GCP é uma das principais nuvens da NVIDIA AI.

Estamos ansiosos para compartilhar outras novidades sobre a nossa colaboração muito em breve.

Para o Omniverse, com a renderização de gráficos e AI generativa, como texto para imagem e texto para vídeo, estamos anunciando o L40.

O L40 tem até 10X mais desempenho do T4 da NVIDIA, a GPU de inferência em nuvem mais popular.

Runway é pioneiro em AI Generativa.

Sua equipe de pesquisa foi um dos principais criadores do Stable Diffusion e seu antecessor, Latent Diffusion.

Runway está inventando modelos generativos de AI para criar e editar conteúdo.

Com mais de 30 AI Magic Tools, seu serviço está revolucionando o processo criativo - tudo a partir da nuvem.

Vamos dar uma olhada.

O Runway está tornando as incríveis ferramentas de edição de vídeo e criação de imagens com inteligência artificial acessíveis a todos.

Alimentado pela última geração de GPUs NVIDIA em execução localmente ou na nuvem, Runway torna possível

remover um objeto de um vídeo com apenas algumas pinceladas.

Ou aplicar estilos diferentes ao vídeo usando apenas uma imagem de entrada.

Ou alterar o plano de fundo - ou o primeiro plano - de um vídeo.

O que costumava levar horas usando ferramentas convencionais agora pode ser concluído com resultados de qualidade de transmissão profissional

em apenas alguns minutos.

O Runway faz isso utilizando o CV-CUDA, um projeto de código aberto que permite aos desenvolvedores criar pipelines de

pré e pós-processamento acelerados por GPU altamente eficientes para cargas de trabalho de visão computacional e dimensioná-los para a nuvem.

Com a tecnologia da NVIDIA, o Runway é capaz de fazer coisas impossíveis para oferecer a melhor experiência aos criadores de conteúdo.

O que antes limitava os profissionais experientes agora pode ser feito por você.

Na verdade, o Runway é usado em filmes de Hollywood indicados ao Oscar, e estamos colocando essa tecnologia

nas mãos dos criadores do mundo todo.

Modelos de Linguagem Grande como o ChatGPT são uma nova carga de trabalho de inferência significativa.

Os modelos GPT são intensivos em memória e computação.

Além disso, a inferência é uma carga de trabalho em expansão e de grande volume, exigindo servidores de commodities padrão.

Para inferência de modelos de linguagem grandes como o ChatGPT, estamos anunciando uma nova GPU Hopper - a PCIE H100

com NVLINK de GPU dupla. A nova H100 tem 94 GB de memória HBM3.

A H100 pode processar o GPT-3 de 175 bilhões de parâmetros

e possui suporte aos servidores PCIE, facilitando a expansão.

Atualmente, a única GPU na nuvem que pode praticamente processar o ChatGPT é a HGX A100.

Em comparação com a HGX A100 para processamento do GPT-3, um servidor padrão com quatro pares do H100 com NVLINK de GPU dupla

é até 10X mais rápido.

A H100 pode reduzir os custos de processamento de um Modelo de Linguagem Grande em uma ordem de magnitude.

Grace Hopper é o nosso novo superchip que conecta a CPU Grace e a GPU Hopper em uma

interface coerente de chip a chip de alta velocidade de 900 GB/seg.

Grace Hopper é ideal para processar conjuntos de dados gigantes,

como bancos de dados de AI para sistemas de recomendação e modelos de linguagem grandes.

Hoje, as CPUs com grande memória armazenam e consultam tabelas gigantes para depois transferir resultados às GPUs para inferência.

Com o Grace-Hopper, Grace consulta as tabelas de incorporação e transfere os resultados diretamente para o Hopper

através da interface de alta velocidade – 7X mais rápida que o PCIE.

Os clientes querem criar bancos de dados de AI muito maiores em magnitude.

Grace-Hopper é a engine ideal.

Esta é a plataforma de inferência da NVIDIA – uma arquitetura para diversas cargas de trabalho de AI

e para uma aceleração e elasticidade máximas do datacenter.

As maiores indústrias do mundo fazem coisas físicas, mas querem construí-las digitalmente.

O Omniverse é uma plataforma para a digitalização industrial que une o digital e o físico.

Ele permite que as indústrias projetem, construam, operem e otimizem produtos físicos e fábricas digitalmente,

antes de fazer uma réplica física.

A digitalização aumenta a eficiência e a velocidade e economiza dinheiro.

Através do Omniverse uma fábrica pode ser criada virtualmente, com todas as suas máquinas integradas digitalmente

antes que a fábrica real seja construída.

Isso reduz surpresas de última hora, pedidos de mudança e atrasos na abertura da planta.

A integração de fábricas virtuais pode economizar bilhões para as fábricas do mundo.

A indústria de semicondutores está investindo meio trilhão de dólares para construir um recorde de 84 novas fábricas.

Até 2030, os fabricantes de automóveis construirão 300 fábricas para projetarem 200 milhões de veículos elétricos.

E os fabricantes de baterias estão construindo mais de 100 mega fábricas.

A digitalização também está transformando a logística, movimentando mercadorias através de bilhões de metros quadrados de armazéns em todo o mundo.

Vejamos como a Amazon usa o Omniverse para automatizar, otimizar e planejar seus armazéns autônomos.

A Amazon Robotics fabricou e implementou a maior frota de robôs industriais móveis do mundo.

O mais novo membro dessa frota robótica é o Proteus, o primeiro robô de armazém totalmente autônomo da Amazon.

O Proteus foi construído para se mover através de nossas instalações usando tecnologia avançada de segurança, percepção e navegação.

Vamos ver como o NVIDIA Isaac Sim, desenvolvido no Omniverse, está criando simulações fotorrealistas

fisicamente precisas para ajudar a acelerar as implantações do Proteus.

O Proteus possui vários sensores, incluindo câmeras, lidars e sensores ultrassônicos

para alimentar seus sistemas de software de autonomia.

A equipe do Proteus precisava melhorar o desempenho de uma rede neural que lia marcadores de referência e ajudava o robô

a determinar sua localização no mapa.

São necessários muitos dados – e do tipo certo – para treinar os modelos de linguagem grande que são acionados pela entrada do sensor do robô.

Com o Omniverse Replicator em Isaac Sim, a Amazon Robotics conseguiu gerar grandes conjuntos de dados sintéticos fotorrealistas que melhoraram

a taxa de sucesso da detecção de marcadores de 88,6% para 98%.

O uso dos dados sintéticos gerados pelo Omniverse Replicator também acelerou os tempos de desenvolvimento de meses para dias,

pois conseguimos testar e treinar iterativamente nossos modelos muito mais rápido do que quando usamos apenas dados reais.

Para habilitar novos recursos autônomos para a frota em expansão de robôs Proteus, a Amazon Robotics está trabalhando

para fechar a lacuna da simulação para a realidade, criando simulações de múltiplos sensores e múltiplos robôs em larga escala.

Com Omniverse, a Amazon Robotics otimizará as operações com gêmeos digitais de armazém com fidelidade total.

Quer estejamos gerando dados sintéticos ou desenvolvendo novos níveis de autonomia, Isaac Sim no Omniverse

ajuda a equipe da Amazon Robotics a economizar tempo e dinheiro à medida que implantamos o Proteus em nossas instalações.

O Omniverse possui tecnologias exclusivas para digitalização.

E o Omniverse é a principal plataforma de desenvolvimento para o USD, que serve como uma linguagem comum que permite que equipes colaborem

para criar mundos virtuais e gêmeos digitais.

O Omniverse é fisicamente baseado, espelhando as leis da física.

Ele pode se conectar a sistemas robóticos e operar com hardware-in-the-loop.

Ele possui AI Generativa para acelerar a criação de mundos virtuais.

E o Omniverse pode gerenciar conjuntos de dados de enorme escala.

Fizemos atualizações significativas no Omniverse em todas as áreas.

Vamos dar uma olhada.

Quase 300.000 criadores e designers baixaram o Omniverse.

O Omniverse não é uma ferramenta, mas uma rede USD e um banco de dados compartilhado,

uma estrutura que se conecta a ferramentas de design usadas em vários setores.

Ele conecta, compõe e simula os ativos criados por ferramentas líderes do setor.

Estamos muito satisfeitos em ver o crescimento das conexões do Omniverse.

Cada conexão liga o ecossistema de uma plataforma aos ecossistemas de todas as outras.

A rede de redes do Omniverse vem crescendo exponencialmente.

A Bentley Systems LumenRT agora está conectada.

Assim como o Siemens Teamcenter, NX e Process Simulate, Rockwell Automation Emulate 3D, Cesium, Unity e muitos outros.

Vejamos a digitalização da indústria automobilística de $3T e como as empresas automobilísticas

estão avaliando o Omniverse em seus fluxos de trabalho.

A Volvo Cars e a GM usam o Omniverse USD Composer para conectar e unificar seus pipelines de ativos.

A GM conecta designers, projetistas e artistas usando Alias, Siemens NX, Unreal, Maya e 3ds Max,

e praticamente monta virtualmente os componentes em um gêmeo digital do carro.

Em engenharia e simulação, eles visualizam a aerodinâmica do Powerflow no Omniverse.

Para a próxima geração de veículos Mercedes-Benz e Jaguar Land Rover, os engenheiros utilizam o Drive Sim no Omniverse para gerar

dados sintéticos para treinar modelos de AI, validar o sistema de segurança ativa em relação a um teste de condução NCAP virtual

e simular cenários reais de condução.

A AI Generativa do Omniverse reconstrói rotas anteriormente orientadas em 3D

para que experiências passadas possam ser recriadas ou modificadas.

Trabalhando com a Idealworks, a BMW usa Isaac Sim no Omniverse para gerar dados sintéticos

e cenários para treinar robôs de fábrica.

A Lotus está usando o Omniverse para montar virtualmente estações de soldagem.

A Toyota está usando o Omniverse para construir gêmeos digitais de suas fábricas.

A Mercedes-Benz utiliza o Omniverse para construir, otimizar e planejar linhas de montagem para novos modelos.

A Rimac e a Lucid Motors usam o Omniverse para construir lojas digitais a partir de dados de design reais que representam fielmente seus carros.

A BMW está usando o Omniverse para planejar operações em quase três dúzias de fábricas em todo o mundo.

E eles estão construindo uma nova fábrica de veículos elétricos completamente no Omniverse, dois anos antes da abertura da fábrica física.

Vamos visitá-la!

As indústrias do mundo estão acelerando a digitalização com mais de $3,4 trilhões sendo investidos nos próximos três anos.

Nós da BMW nos esforçamos para ser a vanguarda na digitalização automotiva.

Com o NVIDIA Omniverse e AI, montamos novas fábricas ainda mais rápido e produzimos com mais eficiência do que nunca.

Isso resulta em economias significativas para nós.

Tudo começa com o planejamento – um processo complexo no qual precisamos conectar muitas ferramentas,

conjuntos de dados e especialistas em todo o mundo.

Tradicionalmente somos limitados, uma vez que os dados são gerenciados separadamente em uma variedade de sistemas e ferramentas.

Hoje, estamos mudando tudo isso.

Estamos desenvolvendo “Aplicativos Omniverse Personalizados” para conectar nossas ferramentas, know-how e equipes existentes

– tudo com uma visão unificada.

O Omniverse é nativo na nuvem e independente da nuvem, o que permite que as equipes colaborem com nossas fábricas virtuais em qualquer lugar.

Estou prestes a participar de uma sessão de planejamento virtual para o Debrecen na Hungria – nossa nova fábrica de veículos elétricos – que será inaugurada em 2025.

Vamos entrar.

Planejador 1: Milan acabou de entrar.

Milan: Olá, pessoal.

Planejador 1: Oi Milan - que bom te ver, estamos no meio de um ciclo de otimização para a nossa oficina.

Gostaria de ver?

Milan: Obrigado – Estou muito interessado. E eu gostaria de convidar um amigo.

Planejador 1: Claro.

Jensen: Olá Milan! Que bom te ver!

Milan: Bem-vindo à nossa sessão de planejamento virtual.

Jensen: É ótimo estar aqui. O que estamos olhando?

Milan: Esta é a nossa equipe de planejamento global que está trabalhando em uma célula robótica no gêmeo digital da Debrecen.

Matthias, diga-nos o que está acontecendo…

Matthias: Acabamos de aprender que o conceito de produção requer algumas mudanças.

Agora, estamos reconfigurando o layout para adicionar um novo robô à célula.

Planejador 2: Ok, mas se adicionarmos um novo robô, no lado da logística, precisaremos mover nosso contêiner de armazenamento.

Planejador 3: Tudo bem, vamos colocar esse novo robô.

Matthias: Isso é perfeito. Vamos verificar novamente - podemos executar a célula?

Excelente!

Jensen: Milan, isso é simplesmente incrível!

A integração virtual agora é essencial para todos os setores.

Estou muito orgulhoso em ver o que nossas equipes fizeram juntas. Parabéns!

Milan: Estamos trabalhando globalmente para otimizar localmente.

Depois do planejamento, as operações são o pilar nos processos, e já começamos!

Para comemorar o lançamento de nossa fábrica virtual, gostaria de convidá-lo a abrir a primeira fábrica digital comigo.

Jensen: Eu ficaria honrado. Vamos lá!

As empresas automobilísticas empregam quase 14 milhões de pessoas.

A digitalização aumentará a eficiência, a produtividade e a velocidade do setor.

O Omniverse é o sistema operacional do digital para o físico que realiza a digitalização industrial.

Hoje estamos anunciando três sistemas projetados para executar o Omniverse.

Primeiro, estamos lançando uma nova geração de estações de trabalho alimentadas por GPUs NVIDIA Ada RTX e as mais novas CPUs da Intel.

As novas estações de trabalho são ideais para fazer ray tracing, simulação física, gráficos neurais e AI generativa.

Eles estarão disponíveis na Boxx, Dell, HP e Lenovo a partir de março.

Em segundo lugar, novos servidores NVIDIA OVX otimizados para o Omniverse.

O OVX consiste em GPUs de servidor L40 Ada RTX e nosso novo BlueField-3.

Os servidores OVX estarão disponíveis na Dell, HPE, Quanta, Gigabyte, Lenovo e Supermicro.

Cada camada da pilha do Omniverse, incluindo os chips, sistemas, redes e software, são novas invenções.

Construir e operar o computador Omniverse requer uma equipe de TI sofisticada.

Vamos tornar o Omniverse rápido e fácil de escalar e envolver.

Vamos dar uma olhada.

As maiores indústrias do mundo estão competindo para digitalizar seus processos físicos.

Hoje, isso é um empreendimento complexo.

O NVIDIA Omniverse Cloud é uma plataforma com serviço que oferece acesso instantâneo e seguro a APIs gerenciadas do Omniverse Cloud APIs,

fluxos de trabalho e aplicativos personalizáveis executados em NVIDIA OVX.

As equipes corporativas acessam o conjunto de serviços gerenciados através do navegador da web Omniverse Launcher

ou através de uma integração personalizada.

Uma vez no Omniverse Cloud, as equipes corporativas podem acessar, estender e publicar aplicações básicas

e fluxos de trabalho instantaneamente, para montar e compor mundos virtuais,

gerar dados para treinar AIs de percepção,

testar e validar veículos autônomos

ou simular robôs autônomos…

…acessando e publicando dados compartilhados no Omniverse Nucleus.

Designers e engenheiros trabalhando em suas ferramentas de design de terceiros favoritas em estações de trabalho RTX,

podem publicar edições no Nucleus em paralelo.

Então, quando estiverem prontos para iterar ou visualizar seu modelo integrado no Omniverse,

eles podem simplesmente abrir um navegador da web e fazer o login.

À medida que os projetos e equipes aumentam, o Omniverse Cloud ajuda a otimizar os custos,

provisionando recursos de computação e licenças conforme necessário.

E novos serviços e atualizações são fornecidos automaticamente com atualizações em tempo real.

Com o Omniverse Cloud, as empresas podem acelerar a digitalização e a colaboração unificadas

nos principais fluxos de trabalho industriais, aumentando a eficiência, reduzindo custos e desperdícios

e acelerando o caminho para a inovação.

Vejo você no Omniverse!

Hoje, anunciamos o NVIDIA Omniverse Cloud, um serviço de nuvem totalmente gerenciado.

Estamos em parceria com a Microsoft para levar o Omniverse Cloud às indústrias do mundo.

Vamos hospedá-lo no Azure, beneficiando-se do rico portfólio de armazenamento, segurança, aplicativos e serviços da Microsoft.

Estamos conectando o Omniverse Cloud ao pacote de produtividade do Microsoft 365, incluindo Teams, OneDrive, SharePoint

e os serviços Azure IoT Digital Twins.

A Microsoft e a NVIDIA estão levando o Omniverse a centenas de milhões de usuários do Microsoft 365 e do Azure.

A computação acelerada e a AI chegaram.

Os desenvolvedores utilizam a NVIDIA para acelerar e ampliar a fim de resolver problemas anteriormente impossíveis.

Um desafio assustador é o Net Zero. Toda empresa deve acelerar cada carga de trabalho para recuperar a energia.

A computação acelerada é um desafio de computação em escala de datacenter em full-stack.

Grace, Grace-Hopper e BlueField-3 são novos chips para data centers acelerados com super eficiência energética.

As bibliotecas de aceleração resolvem novos desafios e abrem novos mercados.

Atualizamos 100 bibliotecas de aceleração, incluindo cuQuantum para computação quântica, cuOpt para otimização combinatória

e cuLitho para litografia computacional.

Estamos entusiasmados com a parceria com a TSMC, ASML e Synopsys para irmos para 2nm e além.

NVIDIA DGX AI Supercomputer é o motor por trás do Modelo de Linguagem Grande Generativo.

O supercomputador DGX H100 AI está em produção e disponível em breve

a partir de uma rede em expansão de OEMs e parceiros na nuvem em todo o mundo.

O supercomputador DGX está indo além da pesquisa e se tornando uma fábrica moderna de AI.

Toda empresa fabricará inteligência.

Estamos ampliando nosso modelo de negócios com o NVIDIA DGX Cloud em parceria com o Microsoft Azure, o Google GCP e o Oracle OCI

para levar instantaneamente a NVIDIA AI a todas as empresas, a partir de um navegador.

A DGX Cloud oferece aos clientes o melhor da NVIDIA e o melhor dos principais CSPs do mundo.

Estamos no momento do iPhone para AI.

As cargas de trabalho de inferência de AI generativa entraram em overdrive.

Lançamos nossa nova plataforma de inferência - quatro configurações - uma arquitetura.

L4 para vídeo por AI.

L40 para Omniverse e renderização gráfica.

PCIE H100 para dimensionamento horizontal da inferência do modelo de linguagem grande.

Grace-Hopper para sistemas de recomendação e bancos de dados vetoriais.

A plataforma de inferência da NVIDIA permite a máxima aceleração e elasticidade do data center.

A NVIDIA e o Google Cloud estão trabalhando juntos para implantar uma ampla gama de cargas de trabalho de inferência.

Com essa colaboração, o Google GCP é uma das principais nuvens da NVIDIA AI.

O NVIDIA AI Foundations é um serviço em nuvem, uma fundição, para a criação de modelos de linguagem personalizados e AI Generativa.

O NVIDIA AI Foundations compreende serviços de modelagem de linguagem, visual e biológica.

A Getty Images e a Shutterstock estão criando modelos personalizados de Linguagem Visual.

Estamos em parceria com a Adobe para criar um conjunto de recursos de AI de próxima geração para o futuro da criatividade.

O Omniverse é o sistema operacional do digital para o físico para realizar a digitalização industrial.

O Omniverse pode unificar o fluxo de trabalho de ponta a ponta e digitalizar a indústria automotiva de U$3 milhões e 14 milhões de funcionários.

O Omniverse está saltando para a nuvem.

Hospedado na Azure, fizemos parceria com a Microsoft para levar o Omniverse Cloud aos setores do mundo.

Agradeço aos nossos parceiros de sistemas, nuvem e software, pesquisadores, cientistas e,

especialmente, aos nossos incríveis funcionários

por construírem o ecossistema de computação acelerada NVIDIA.

Juntos, estamos ajudando o mundo a fazer o impossível.

Tenha um ótimo GTC!