NVIDIA - GTC 2023 Keynote with NVIDIA CEO Jensen Huang - 한국어

🎁Amazon Prime 📖Kindle Unlimited 🎧Audible Plus 🎵Amazon Music Unlimited 🌿iHerb 💰Binance

거의 40년 동안

무어의 법칙이 컴퓨터 산업의 지배 역학이 됐으며,

그로 인해 모든 산업에 영향을 미쳤습니다.

일정한 비용과 전력에서 기하급수적으로증가하던 성능은 느려졌습니다.

하지만 컴퓨팅은 매우 빠른 속도로 발전했습니다.

워프 드라이브 엔진이 가속 컴퓨팅이며,그 에너지원은 AI입니다.

산업이 지속 가능성,

생성형 AI 및 디지털화와 같은

강력한 역학 문제를 처리함에 따라

가속 컴퓨팅과 AI가

시기 적절하게 등장했습니다.

무어의 법칙이 없는 상태에서 컴퓨팅이 급증하면서 데이터센터의

전력 또한 급증하고 기업들은 Net Zero를 달성하는 데 어려움을 겪고 있습니다.

생성형 AI의 인상적인 기능은 기업들에게

제품과 비즈니스 모델을 재구성해야 한다는 긴박감을 불러일으켰습니다.

산업 기업들이 디지털화하고 소프트웨어 기반 기술 회사로의 탈바꿈하기 위해 경쟁하고 있습니다.

이는 파괴되는 것이

아니라 혁신하는 것입니다.

오늘은 가속화 컴퓨팅과 AI가 어떻게 이러한 과제를 해결하고 엄청난 기회를 잡을 수 있는 강력한

도구인지에 대해 논의할 것입니다.

NVIDIA의 전체 스택, 데이터 센터 규모의 가속 컴퓨팅 플랫폼의 새로운 발전 사항을 공유할 예정입니다.

새로운 시장을 개척하는 새로운 칩과 시스템,가속 라이브러리, 클라우드 서비스,

AI 및 파트너십도 공개할 예정입니다.

GTC에 오신 것을 환영합니다!

GTC는 개발자를 위한 컨퍼런스입니다.

글로벌 NVIDIA 생태계는 400만 명의 개발자, 4만 개 기업 그리고

1만 4,000개의 스타트업들을 아우르고 있습니다.

저희를 지지해주고 GTC 2023에 큰 성공을안겨준 Diamond 스폰서 여러분께 감사드립니다.

컨퍼런스에 25만 명 이상이 참석하게 되어 매우 기쁩니다.

GTC는 엄청나게 성장했습니다.

불과 4년 전만 해도, 대면 GTC 컨퍼런스에 8,000명이 참석했습니다.

이번 GTC 2023에서는 DeepMind의 Demis Hassabis,

Argonne Labs의 Valeri Taylor,

Adobe의 Scott Belsky,

Netflix의 Paul Debevec,

ETH Zurich의 Thomas Schulthess와 같은

업계 리더들의 의견을 듣고 저와 OpenAI의 공동 설립자 겸 ChatGPT의 크리에이터인 Ilya Sutskever와

함께 하는 대담을 통해 여러 인사이트를 배울 수 있을 것입니다.

또한 학계와 세계 최대 산업 분야의 뛰어난 지성들이 전하는 650개의 놀라운 세션들이 준비되어 있습니다.

생성형 AI에 관한 세션은 70개 이상 준비되어 있습니다.

로보틱스용 사전 훈련된 멀티태스킹 모델과 같은 다른 훌륭한 강연과

Isaac Sim을 사용하여 물리 기반 포인트 클라우드를 생성하는 등 AI 발전에

중요한 방법인 합성 데이터 생성에 대한 세션,

AI 사용부터 미래의 가상 공장 거주, 과거의 잃어버린 로마 모자이크를 복원하는 것까지 디지털

트윈에 관한 다양한 대담이 준비되어 있습니다.

대형 광학 망원경과 광자 계산 CT 등 컴퓨팅 기기에 대한 멋진 대담,

탄소 포획 및 태양 전지를 위한 재료 과학, Earth-2에 대한 연구를 포함한 기후 과학,

NVIDIA 리서치의 신뢰할 수 있는 AI 및 AV 안전에 대한 중요한 대담,

그리고 초소형 시스템인 마이크로 칩을 위한 컴퓨터 리소그래피,우주의 비대칭성을 설명하는

Large Hadron Collider의 AI에 이르기까지 주제도 다양합니다.

자동차와 운송, 헬스케어, 제조,금융 서비스,

소매, 의류, M&E, 통신 등 세계에서

가장 중요한 기업과 세계를 선도하는

AI 기업들이 여기 한자리에 모입니다.

GTC의 목적은 가속 컴퓨팅의 가능성에 대해 전 세계에 영감을 주고,

이를 사용하는 과학자와 연구원의 성과를 기리는 데 있습니다.

저는 번역기입니다.

텍스트를 창의적인 발견으로,

움직임을 애니메이션으로,

방향을 동작으로 변환합니다.

저는 치유자(Healer)입니다.

우리를 고유하게 만드는 기초 요소를 탐구하고

새로운 위협을 발생하기 전에 모델링하고

이를 저지할 치료법을 찾습니다.

저는 공상가(Visionary)입니다.

새로운 의료 기적을 일으키고

태양에 대한 새로운 관점을 제공하여

지구에서 우리를 안전하게 지키고자 합니다.

저는 항해자(Navigator)입니다.

콘텐츠의 바다에서 특별한 순간을 발견하고

모든 스토리를 위한

완벽한 차세대 설정을 발표합니다.

저는 크리에이터(Creator)입니다.

스냅샷을 바탕으로 3D 경험을 구축하고

가상 자아에 현실의 새로운 차원을 더합니다.

저는 조력자(Helper)입니다.

브레인스토밍을 실현하고

100만 명의 프로그래머들의 지혜를 공유하며

아이디어를 가상 세계로 전환합니다.

북부 숲을 건설하세요.

이 스크립트를 만드는 것도 도왔습니다.

단어에 생명을 불어넣고

멜로디를 작곡했습니다.

저는 AI입니다.

NVIDIA, 딥러닝과 전 세계의 뛰어난 인재들덕분에 태어났지요.

NVIDIA는 일반 컴퓨터로는 할 수 없는 문제를 해결하기 위해 가속 컴퓨팅을 발명했습니다.

가속 컴퓨팅은 쉽지 않습니다.

칩, 시스템, 네트워킹, 가속화 라이브러리에서 애플리케이션

리팩토링에 이르는 풀 스택 발명이 필요합니다.

최적화된 각 스택은 그래픽, 이미징, 입자 또는 유체 역학,

양자 물리학에서 데이터 처리 및 머신 러닝에 이르는

애플리케이션 도메인을 가속화합니다.

애플리케이션이 가속화되면 놀라운 속도 향상을 누릴 수 있으며, 수많은 컴퓨터로 확장할 수 있습니다.

지난 10년간 속도 향상과 규모 확장이결합되면서 수많은 애플리케이션으로

다양한 기능을 달성할 수 있었고,

이전에는 불가능했던 문제 해결에 도움이 됐습니다.

여러 사례가 있지만, 가장 유명한 것은 딥 러닝입니다.

2012년, Alex Kerchevsky, Ilya Suskever, Geoff Hinton은AlexNet 컴퓨터 비전 모델을 트레이닝하기 위해 굉장히

빠른 컴퓨터가 필요했습니다.

연구원들은 GeForce GTX 580을 활용하여1,400만 개의 이미지로 AlexNet을

훈련시켜 262 쿼드릴리온 개의 부동 소수점 연산을 처리했으며,

훈련된 모델은 ImageNet 챌린지에서 큰 점수 차이로 이겨 AI의 빅뱅을 촉발했습니다.

그리고 10년 후, 트랜스포머 모델이 발명되었습니다.

이제 OpenAI의 Ilya는 다음 단어를 예측하기 위해 GPT-3대규모 언어 모델을 훈련시켰습니다.

GPT-3을 훈련시키려면 323 섹스틸리온 개의 부동 소수점 연산이 필요했습니다.

이는 AlexNet을 훈련시키는 것보다 백만 배 더 많은부동 소수점 연산입니다.

이번의 그 결과가 바로 ChatGPT입니다. 바로 전 세계에서 논하고 있는 바로 그 AI입니다.

새로운 컴퓨팅 플랫폼이 발명되었습니다.

AI의 아이폰 시대가 시작되었습니다.

가속 컴퓨팅과 AI가 등장했습니다.

가속 라이브러리는 가속 컴퓨팅의 핵심입니다.

이러한 라이브러리는 세계 산업과 연결되어 네트워크의 네트워크를 구성하는 애플리케이션에 연결됩니다.

수십 년간의 제작 과정에서 수천 개의 애플리케이션이이제 거의 모든 과학 및 산업 분야의 라이브러리를

통해 NVIDIA를 가속화하고 있습니다.

모든 NVIDIA GPU는 CUDA 호환 기능으로 개발자에게 대규모 설치 기반과 상당한 도달 범위를 제공합니다.

풍부한 가속화 애플리케이션은 최종 사용자를 끌어들여 클라우드 서비스 제공업체와 컴퓨터

제조업체가 서비스를 제공할 수 있는 대규모 시장을 만듭니다.

대규모 시장은 R&D의 성장을 촉진하기 위해 수십억 달러를 지원합니다.

NVIDIA는 가속 컴퓨팅 선순환을 확립했습니다.

올해에는, 레이 트레이싱 및 뉴럴 렌더링, 물리학,지구과학 및 생명과학,

양자 물리학 및 화학, 컴퓨터 비전,데이터 처리, 머신 러닝

및 AI를 아우르는 300개 가속 라이브러리와 400개의 AI 모델 중에서 전체 설치

기반의 성능과 기능을 향상하는 100개의 업데이트가 진행되었습니다.

새로운 문제를 해결하고 새로운 시장을 개방하는 몇 가지 가속화 라이브러리를 강조해 보려고 합니다.

자동차와 항공 우주 산업은 난기류 및 공기 역학시뮬레이션에 CFD를 사용합니다.

전자 장치 산업은 열 관리 설계에 CFD를 사용합니다.

이것은 CUDA에 의해 가속화된 Cadence의새로운 CFD 솔버 슬라이드입니다.

NVIDIA A100은 동등한 시스템 비용에서 CPU 서버의 9배에달하는 처리량을 가지고 있습니다.

또는 동등한 시뮬레이션 처리량 측면에서 NVIDIA는 비용이 9배낮거나 에너지 소모량이 17배 적습니다.

Ansys, Siemens, Cadence 및 기타 주요 CFD 솔버가이제 CUDA로 가속화됩니다.

전 세계적으로 산업용 CAE는 매년 약1,000억 CPU 코어 시간을 사용하고 있습니다.

가속화는 전력을 개선하고 지속성과 Net Zero를 달성하는 가장 좋은 방법입니다.

NVIDIA는 글로벌 양자 컴퓨팅 연구 커뮤니티와 파트너십을 맺고 있습니다.

NVIDIA Quantum 플랫폼은 연구원이 양자 프로그래밍 모델,

시스템 아키텍처 및 알고리즘을 발전시킬 수 있는 라이브러리와 시스템으로 구성됩니다.

cuQuantum은 양자 회로 시뮬레이션을 위한 가속화 라이브러리입니다.

IBM Qiskit, Google Cirq, Baidu Quantum Leaf, QMWare, QuEra, Xanadu Pennylane, Agnostiq 및 AWS 브래킷은

cuQuantum을 시뮬레이션 프레임워크에 통합했습니다.

오픈 Quantum CUDA 는 하이브리드 GPU-양자 프로그래밍 모델입니다.

IonQ, ORCA Computing, Atom, QuEra, Oxford Quantum Circuits, IQM, Pasqal, Quantum Brilliance, Quantinuum, Rigetti,

Xanadu 및 Anyon은 Open Quantum CUDA를 통합했습니다.

양자 잡음 및 결잃음(decoherence)에서 데이터를 복구하려면 수많은 큐비트의 오류 수정이 필요합니다.

오늘 NVIDIA는 NVIDIA GPU를 양자 컴퓨터에 연결하여 매우 빠른 속도로 오류를 수정하는

Quantum Machines와의 파트너십을 통해 개발된 양자 제어 링크를 발표합니다.

양자 컴퓨터를 상용화하려면 아직 10년~20년 정도 더 걸리지만, NVIDIA Quantum과 함께 이 대규모의 활기찬 연구

커뮤니티를 지원하게 되어 기쁩니다.

전 세계의 엔터프라이즈는 Apache Spark를 사용하여 데이터 레이크 및 창고,

SQL 쿼리, 그래프 분석 및 추천 시스템을 처리합니다.

Spark-RAPIDS는 NVIDIA의 가속 Apache Spark 데이터 처리 엔진입니다.

데이터 처리는 전 세계 5,000억 달러 규모의 클라우드 컴퓨팅지출 중 가장 많은 부분을 차지하는 워크로드입니다.

현재 Spark-RAPIDS는 GCP Dataproc, Amazon EMR, Databricks 및 Cloudera를

포함한 주요 클라우드 데이터 처리 플랫폼을 가속화합니다.

추천 시스템은 벡터 데이터베이스를 사용하여 구조화되지 않은 데이터의 대규모 데이터세트를 저장, 색인, 검색합니다.

벡터 데이터베이스의 새로운 중요한 사용 사례는 텍스트 생성 중에 쿼리할 수 있는 도메인별 또는

소유권 정보를 검색하는 대규모 언어 모델입니다.

인덱싱, 데이터 로딩, 단일 쿼리에 대한 이웃 배치검색을 가속화하기 위한 새로운

라이브러리인 RAFT를 소개하고자 합니다.

NVIDIA는 Meta의 오픈 소스 FAISS AI 유사성 검색, 1,000개 이상의 조직에서 사용하는 Milvus 오픈 소스 벡터 DB,

4B 이상의 도커 풀을 사용하는 Redis에 RAFT의 가속화를 제공하고 있습니다.

벡터 데이터베이스는 독점 대규모 언어 모델을 구축하는 조직에 필수적입니다.

22년 전, 운영 연구 과학자인 Li와 Lim은 일련의 까다로운 픽업 및 배송 문제를 게시했습니다.

PDP는 제조, 운송, 소매 및 물류, 심지어 재해 구호에도 나타나고 있습니다.

PDP는 출장 영업 사원 문제의 일반화이자 NP 하드입니다.

즉, 정확한 솔루션을 찾는 데 효율적인 알고리즘이 없다는 의미입니다.

문제 크기가 커짐에 따라 솔루션 시간도 크게 증가합니다.

진화 알고리즘과 가속 컴퓨팅을 사용하여 초당300억 개의 움직임을 분석하는

NVIDIA cuOpt는 세계 신기록을 경신하고 Li&Lim 챌린지를위한 최고의 솔루션을 찾아냈습니다.

AT&T는 정기적으로 3만 명의 기술자를 파견하여 700곳의 지역에 걸쳐 1,300만 명의 고객에게 서비스를 제공합니다.

현재는 CPU에서 구동되는 AT&T 디스패치 최적화에 하룻밤이 소요됩니다.

AT&T는 지연 및 새로 발생하는 사고를 조정하는 동시에 긴급한 고객의 요구와 전반적인

고객 만족을 위해 지속적으로 최적화할 수 있는실시간 디스패치 솔루션을 원하고 있습니다.

AT&T는 cuOpt를 통해 100배 빠른 솔루션을 찾고 실시간으로디스패치를 업데이트할 수 있습니다.

AT&T는 NVIDIA AI 라이브러리의 전체 제품군을 채택했습니다.

Spark-RAPIDS 및 cuOPT 외에도 대화형 AI에 Riva를, 디지털 아바타를 위한 Omniverse를 사용하고 있습니다.

AT&T는 NVIDIA 가속 컴퓨팅 및 AI를 활용하여 지속 가능성,비용 절감 및 새로운 서비스를 제공하고 있습니다.

cuOpt는 물류 서비스도 최적화할 수 있습니다.매년 3,770억 곳의 도착지에 4,000억 개의 소포가 배달됩니다.

Deloitte, Capgemini, Softserve, Accenture와 Quantiphi는 NVIDIA cuOpt를 사용하여 고객이 운영을 최적화하도록 돕고 있습니다.

NVIDIA의 추론 플랫폼은 세 가지 소프트웨어 SDK로 구성됩니다.

NVIDIA TensorRT는 대상 GPU를 최적화하는NVIDIA의 추론 런타임입니다.

NVIDIA Triton은 GPU 및 CPU를 지원하는 멀티 프레임워크 데이터센터 추론 소프트웨어입니다.

Microsoft Office와 Teams, Amazon, American Express 그리고미국 우체국은 TensorRT 및 Triton을 사용하는

4만여 고객 중 하나입니다.

Uber는 Triton을 사용하여 초당 수십만 개의ETA 예측 결과를 제공합니다.

일일 사용자가 6천만 명 이상인 Roblox는 Triton을 사용하여 게임 추천, 아바타 구축,

적합한 콘텐츠 및 시장 광고용 모델을 제공합니다.

NVIDIA는 모델 앙상블을 위한 모델 분석기 지원, 다중 동시 모델 제공,

GPT-3 LLM을 위한 멀티 GPU 멀티 노드 추론과 같은 뛰어난새 기능을 출시할 것입니다.

NVIDIA Triton 관리 서비스는 데이터센터 전반에서 Triton 추론 인스턴스의 확장 및 조직화를

자동화하는 새로운 소프트웨어입니다.

Triton 관리 서비스는 모델 배포의 처리량과 비용 효율성을 개선하는 데 도움이 됩니다.

클라우드 비디오 파이프라인의 50~80%는 CPU에서

처리되어 전력과 비용을 소비하고 지연 시간을 더합니다.

컴퓨터 비전을 위한 CV-CUDA와 영상 처리를 위한 VPF는 새로운 클라우드 규모의 가속화 라이브러리입니다.

CV-CUDA에는 감지, 세분화 및 분류를 위한 30개의 컴퓨터 비전 연산자가 포함되어 있습니다.

VPF는 Python 영상 인코딩 및 디코딩 가속화 라이브러리입니다.

Tencent는 CV-CUDA 및 VPF를 사용하여 하루에 30만 개의 영상을 처리합니다.

Microsoft는 CV-CUDA 및 VPF를 사용하여 시각적 검색을 처리합니다.

Runway는 CV-CUDA와 VPF를 사용하여 클라우드 생성형

AI 영상 편집 서비스의 영상을 처리하는 멋진 회사입니다.

영상은 이미 인터넷 트래픽의 80% 이상을 차지하고 있습니다.

사용자 생성 영상 콘텐츠는 상당한 성장을 주도하고 막대한 양의 전력을 소비하고 있습니다.

우리는 모든 영상 처리를 가속화하고 전력을 개선해야 합니다.

CV-CUDA 및 VPF는 얼리 액세스 단계에 있습니다.

NVIDIA 가속 컴퓨팅은 유전체학에서 획기적인 사건 달성하는 데 도움을 주었습니다.

이제 의사는 한 번의 방문으로 혈액을 채취하여환자 DNA로 염기서열 분석을 할 수 있게 된 것입니다.

또 다른 기념비적인 사건에서는 NVIDIA 기반 기기로 전체 유전체 서열 분석 비용을 단 100달러로 절감했습니다.

유전체학은 신약 개발 및 농업에서 에너지 생산에이르는 다양한 애플리케이션을 갖춘 합성 생물학에

중요한 도구입니다.

NVIDIA Parabricks는 클라우드 또는 기기 내의 엔드 투 엔드 유전체학 분석을 위한 AI 가속 라이브러리 제품군입니다.

NVIDIA Parabricks는 Terra, DNAnexus 그리고 FormBio와 같은 모든 퍼블릭 클라우드 및 유전체학 플랫폼에서 사용할 수 있습니다.

오늘, NVIDIA는 Parabricks 4.1을 발표하며 이는 PacBio,

Oxford Nanopore, Ultima, Singular, BioNano 및 Nanostring의NVIDIA 가속 유전체학 기기에서 실행될 예정입니다.

전 세계 2,500억 달러 규모의 의료 기기 시장이 혁신되고 있습니다.

의료 기기는 이제 소프트웨어 정의 및 AI 기반이 될 것입니다.

NVIDIA Holoscan은 실시간 센서 처리 시스템을 위한 소프트웨어 라이브러리입니다.

75개 이상의 기업이 Holoscan에서 의료 기기를 개발하고 있습니다.

오늘, NVIDIA는 의료 기기 분야의 세계 선두 주자인 Medtronic과 NVIDIA가 함께 소프트웨어 정의 의료

디바이스용 AI 플랫폼을 구축하고 있음을 발표합니다.

이 파트너십을 통해 수술 탐색에서 로봇 보조 수술에 이르기까지 Medtronic 시스템을

위한 공통 플랫폼을 만들 것입니다.

오늘, Medtronic은 결장암의 조기 발견을 위한 AI를 탑재한 차세대 GI Genius 시스템이

NVIDIA Holoscan에 구축되었으며 올해 말 출시 예정이라고 발표했습니다.

칩 산업은 거의 모든 산업의 기반입니다.

칩 제조에는 극강의 정밀도가 요구되는데 박테리아보다 1,000배 더 작으며,

단 하나의 금 원자 또는 인간 DNA 가닥과 비슷한 크기로 생산됩니다.

웨이퍼에서 패턴을 제작하는 과정인 리소그래피는 칩 제조 과정의 시작이며

포토마스크 제작 및 패턴 투영이라는 두 단계로 구성됩니다.

근본적으로 물리학의 한계에 있는 이미징 문제입니다.

포토마스크는 칩의 스텐실과 같습니다. 빛이 차단되거나 마스크를 통과해 웨이퍼에서

패턴을 생성합니다.

빛은 ASML EUV 극자외선 리소그래피 시스템에 의해 생성됩니다.

각 시스템은 2억 5,000만 달러 이상을 호가합니다.

ASML EUV는 빛을 만들기 위해 기본적인 방법을 사용합니다.

레이저가 주석 한 방울에 초당 5만 회 발사되어 증기를 일으켜 거의 엑스레이에 근사한 13.5nm EUV 조명을 방출하는

플라즈마를 생성합니다.

멀티레이어 미러는 빛을 마스크로 유도합니다.

마스크 레티클의 멀티레이어 리플렉터는 13.5nm 조명의 간섭 패턴을 활용하여

3nm 이하의 미세한 상을 생성합니다.

마법.

웨이퍼는 0.25 나노미터 이내에 위치하며 초당 2만 회 정렬되어 어떠한 진동에 대해서도 조정할 수 있습니다.

리소그래피 전 단계도 놀랍습니다.

컴퓨터 리소그래피는 역물리학 알고리즘을 적용하여 웨이퍼의 최종 패턴을

생성하는 마스크 레티클의 패턴을 예측합니다.

사실 마스크의 패턴은 최종 상과 전혀 유사하지 않습니다.

컴퓨터 리소그래피는 현미경을 통과하고 포토레지스트와 상호 작용하는빛의 동작에 대한 Maxwell 방정식을

시뮬레이션합니다.

컴퓨터 리소그래피는 칩 설계 및 제조 분야에서 최대 규모의 계산 워크로드로,

연간 수백억 CPU 시간을 소모합니다.

대규모 데이터센터는 하루도 빠짐없이 일주일 24시간 내내 실행되어리소그래피 시스템에 사용되는 레티클을 생성합니다.

이러한 데이터센터는 칩 제조업체가 투자한 연간 약 2,000억 달러 CAPEX의 일부입니다.

알고리즘의 복잡성이 증가함에 따라 컴퓨터 리소그래피가빠르게 증가하고 있어 업계에서는

2nm 이상으로 넘어갈 수 있습니다.

NVIDIA는 오늘 컴퓨터 리소그래피용 라이브러리인 cuLitho를발표할 예정입니다.

cuLitho는 TSMC, ASML 및 Synopsys와의 긴밀한 협력을 통해 거의

4년이 걸린 대규모 작업물로, 컴퓨터 리소그래피를 40배 이상 가속화합니다.

NVIDIA H100을 위한 89개의 레티클이 있습니다.

현재 CPU에서 실행 중인 단일 레티클을 처리하는 데 2주가 소요됩니다.

GPU에서 실행되는 cuLitho는 단 8시간 만에 레티클을 처리할 수 있습니다.

TSMC는 불과 500개의 DGX H100 시스템에서 cuLitho를 통해 가속화하여 컴퓨터 리소그래피에

사용되는 4만 개의 CPU 서버를 줄여 전력을 35MW에서 단 5MW로 줄일 수 있습니다.

TSMC는 cuLitho를 통해 프로토타입 주기 시간을 줄이고,

처리량을 늘리고, 제조에서 발생하는 탄소 발자국을 절감하며,2nm 이상에 대비할 수 있습니다.

TSMC는 6월부터 생산을 위해 cuLitho 자격을 갖출 것입니다.

모든 산업 분야는 모든 워크로드를 가속화해야 합니다. 그러면 전력을 개선하고 더 적은 전력양으로 더 많은 작업을 수행할 수 있습니다.

지난 10년 동안 클라우드 컴퓨팅은 매년 20% 성장하여 거대한 1조 달러 규모 산업으로 성장했습니다.

약 3천만 대의 CPU 서버가 대부분의 과정을 수행합니다.

하지만 곧 문제점이 발생할 것입니다.

무어의 법칙이 끝나면서, CPU 성능 향상과 함께 전력 소비량 증가가 동반되었습니다.

그리고 탄소 배출량 감축 의무는 기본적으로 데이터센터 증가에 대한 필요성과 상충됩니다.

클라우드 컴퓨팅의 성장에는 전력 제한이 있습니다.

무엇보다 데이터센터는 모든 워크로드를 가속화해야 합니다.

가속화는 전력을 개선합니다.

이렇게 절약된 에너지는 새로운 성장을 촉진할 수 있습니다.

가속화되지 않은 것은 CPU에서 처리됩니다.

가속 클라우드 데이터센터의 CPU 설계 지점은과거와는 근본적으로 다릅니다.

AI와 클라우드 서비스에서는 가속 컴퓨팅이 병렬화 가능한 워크로드를 떠안고 CPU는

웹 RPC 및 데이터베이스 쿼리와 같은 다른 워크로드를 처리합니다.

NVIDIA는 AI 워크로드가 GPU 가속화되는 AI 및클라우드 퍼스트를 위한 Grace CPU를 설계했으며

Grace는 단일 스레드 실행 및 메모리 처리에서 뛰어난 성능을 보였습니다.

CPU 칩뿐만이 아닙니다. 데이터센터 운영자는 전체 데이터센터의 처리량과 TCO를 최적화합니다.

클라우드 데이터센터 규모의 높은 에너지 효율성을 위해 Grace를 설계했습니다.

Grace는 3.2TB/s의 횡단면 대역폭을 제공하는 초고속 온-칩(on-chip) 확장 가능 응집성 패브릭으로 연결된

72개의 Arm 코어로 구성됩니다.

Grace Superchip은 900GB/s의 저전력 칩 간 응집성 인터페이스를 통해 두 개의 CPU 다이 사이에서 144개의 코어를 연결합니다.

메모리 시스템은 휴대폰에서 사용되는 것과 같은 LPDDR 저전력 메모리로, 데이터센터에서 사용할 수 있게 특별히 개선하였습니다.

이는 1/8의 전력으로 오늘날의 시스템 대역폭 대비 2.5배,1TB/s를 제공합니다.

1TB 메모리를 갖춘 144코어 Grace Superchip 모듈 전체는불과 5x8인치에 불과합니다.

전력이 낮아 공기 냉각이 가능합니다.

이것은 수동 냉각 기능을 갖춘 컴퓨팅 모듈입니다.

2대의 Grace Superchip 컴퓨터는 단일 1U 공기 냉각식서버에 들어갈 수 있습니다.

Grace의 성능과 전력 효율성은 클라우드 및 과학 컴퓨팅 애플리케이션에 탁월합니다.

NVIDIA는 클라우드 마이크로서비스 통신 속도를 테스트하는 인기 있는 Google 벤치마크와

Apache Spark 메모리 집약 데이터 처리를 테스트하는Hi-Bench 제품군에서 Grace를 테스트했습니다.

이러한 종류의 워크로드는 클라우드 데이터센터의 기본입니다.

마이크로서비스에서 Grace는 최신 세대의 x86 CPU 평균보다1.3배 빠르며 데이터 처리

속도에서 1.2배 더 빠릅니다.

전체 서버 노드에서 측정된 전력의 60%만 사용하여 더 높은 성능을 달성할 수 있습니다.

CSP는 전력이 제한된 데이터센터에 1.7배 더 많은 Grace 서버를 장착할 수 있으며 각각 25% 더 많은 처리량을 제공합니다.

Iso 전력에서, Grace는 CSP에 2배 더 많은 성장 기회를 제공합니다.

Grace는 샘플링 중입니다.

그리고 Asus, Atos, Gigabyte, HPE, QCT, Supermicro, Wistron 및ZT는 현재 시스템을 구축하고 있습니다.

최신 소프트웨어 정의 데이터센터에서 가상화, 네트워크, 스토리지 및 보안을

수행하는 운영 체제는 데이터센터의CPU 코어 및 관련 전력의 거의 절반을 소비할 수 있습니다.

데이터센터는 전력을 개선하고 수익을 창출하는 워크로드에 CPU를 할당할 수 있도록 모든 워크로드를 가속화해야 합니다.

NVIDIA BlueField는 데이터센터 운영 체제 및 인프라 소프트웨어를 떠맡아 가속화합니다.

Check Point, Cisco, DDN, Dell EMC, Juniper, Palo Alto Networks,Red Hat 및 VMWare를

포함한 24곳 이상의 에코시스템 파트너는 BlueField의 데이터센터 가속 기술을

사용하여 소프트웨어 플랫폼을 보다 효율적으로 실행합니다.

BlueField-3는 생산 단계이며 선도적인 클라우드 서비스 제공업체인 Baidu, CoreWeave, JD.com, Microsoft Azure,

Oracle OCI 및 Tencent Games에서 클라우드 가속을 위해 채택하고 있습니다.

NVIDIA 가속 컴퓨팅은 세계 AI 슈퍼컴퓨터 DGX로 시작됩니다.

이는 대규모 언어 모델의 혁신을 뒷받침하는 엔진입니다.

저는 세계 최초로 OpenAI에 DGX를 직접 제공했는데요.

그 이후로 Fortune 100대 기업 중 절반이 DGX AI 슈퍼컴퓨터를설치했습니다.

DGX는 AI의 필수적인 기기가 되었습니다.

DGX의 GPU는 8개의 H100 모듈입니다.

H100에는 생성형 사전 훈련 트랜스포머인 놀라운 ChatGPT와

같은 모델을 처리하도록 설계된 트랜스포머 엔진이 있습니다.

8개의 H100 모듈은 NVLINK 스위치에서 서로 NVLINK 되어 완전히 비차단 트랜잭션을 허용합니다.

8개의 H100은 하나의 거대한 GPU로써 작동합니다.

컴퓨팅 패브릭은 AI 슈퍼컴퓨터에서 가장 중요한 시스템 중 하나입니다.

망내 처리를 갖추었으며 지연 시간이 400Gbps로

매우 낮은 NVIDIA Quantum InfiniBand는 수백,

수천 개의 DGX 노드를

AI 슈퍼컴퓨터에 연결합니다.

NVIDIA DGX H100은 전 세계 AI 인프라를구축하는 고객의 청사진입니다.

이는 현재 생산 중입니다.

Microsoft에서 Azure가 H100 AI 슈퍼컴퓨터에 프라이빗 프리뷰를 공개한다는 사실을 발표하게 되어 정말 기쁩니다.

다른 시스템 및 클라우드 서비스도 곧 Atos, AWS, Cirrascale, CoreWeave, Dell, Gigabyte, Google, HPE,

Lambda Labs, Lenovo, Oracle, Quanta 및 SuperMicro에서 제공될 예정입니다.

DGX AI 슈퍼컴퓨터 시장은 크게 성장했습니다.

원래 AI 연구 기기로 사용되었던 DGX AI 슈퍼컴퓨터는 운영의 영역으로 확장되어

365일 쉬지 않고 실행되어 데이터를 개선하고 AI를 처리합니다.

DGX 슈퍼컴퓨터는 최신 AI 공장입니다.

우리는 AI의 아이폰 시대에 살고 있습니다.

스타트업은 혁신적인 제품과 비즈니스 모델을 구축하기 위해 경쟁하고 있으며, 기존 기업들은 이에 대한 대응책을 모색하고 있습니다.

생성형 AI는 전 세계 기업들에 긴박감을 불러일으켜 AI 전략을 개발하게 만들었습니다.

고객은 NVIDIA AI에 더 쉽고 빠르게 액세스해야 합니다.

NVIDIA는 모든 기업이 브라우저에서 즉시 NVIDIA DGX AI 슈퍼컴퓨터를 제공받을 수 있게 Microsoft Azure,

Google GCP 그리고 Oracle OCI와의 파트너십을 통한 NVIDIA DGX 클라우드를 발표합니다.

DGX 클라우드는 AI의 엔드 투 엔드 개발 및 배포를 위한 세계 최고의 가속화 라이브러리

제품군인 NVIDIA AI Enterprise를 실행하는 데 최적화되어 있습니다.

DGX 클라우드는 고객에게 최고의 NVIDIA AI와 세계 최고의 클라우드 서비스 제공업체를 제공합니다.

이 파트너십을 통해 NVIDIA의 에코시스템을 CSP에 제공하는동시에 NVIDIA의 규모와 도달 범위가 확장됩니다.

이 윈-윈 파트너십은 전 세계 규모의 클라우드에서 NVIDIA에 대한 생성형 AI 인스턴트 액세스에 참여하기 위해 경쟁하고 있는 고객에게 제공됩니다.

NVIDIA는 속도, 규모 및 우리의 비즈니스 모델의 클라우드 확장에 매우 기쁘게 생각하고 있습니다.

Oracle Cloud Infrastructure(OCI)가 최초의 NVIDIA DGX클라우드가 될 것입니다.

OCI는 뛰어난 성능을 가지고 있습니다. 여기에는 2계층 컴퓨팅 패브릭과 관리 네트워크가 있습니다.

업계 최고의 RDMA를 갖춘 NVIDIA의 CX-7은 컴퓨팅 패브릭입니다.

또한 BlueField-3는 관리 네트워크를 위한 인프라 프로세서가 될 것입니다.

이 조합은 멀티 테넌트 클라우드 서비스로 제공될 수 있는 최첨단 DGX AI 슈퍼컴퓨터입니다.

NVIDIA에는 Consumer Internet 및 소프트웨어, 헬스케어, 미디어 및 엔터테인먼트,

금융 서비스를 아우르는 엔터프라이즈 고객 50곳이 있습니다.

ChatGPT, Stable Diffusion, DALL-E, Midjourney는 생성형 AI로 세상을 각성시키고 있습니다.

이 애플리케이션의 사용 편의성과 인상적인 기능은 단 몇 개월 만에 1억 명 이상의 사용자를 사로잡았습니다.

ChatGPT는 역사상 가장 빠르게 성장하는 애플리케이션입니다.

교육은 필요하지 않습니다. 그저 이 모델에게 뭔가를 부탁하기만 하면 됩니다.

프롬프트가 정확하거나 모호할 수 있습니다. 프롬프트가 명확하지 않은 경우,

ChatGPT는 대화를 통해 사용자의 의도를 알아봅니다.

생성된 텍스트는 기대를 뛰어넘습니다.

ChatGPT는 메모와 시를 작성하고, 연구 논문을 의역하고, 수학 문제를 풀고, 계약의 핵심 사항을 강조하며,

심지어 소프트웨어 프로그램도 코딩할 수 있습니다.

ChatGPT는 소프트웨어를 실행할 뿐만 아니라소프트웨어를 작성하는 컴퓨터입니다.

많은 혁신이 생성형 AI로 이어졌습니다.

트랜스포머는 데이터의 관계와 종속성에서 동시적 및 대규모로 문맥과 의미를 배웁니다.

이로 인해 대규모 언어 모델은 수많은 데이터로 학습하여

명확한 훈련 없이 다운스트림 작업을 수행할 수 있습니다.

그리고 물리학에서 영감을 받은 확산 모델은 감독 없이학습하여 이미지를 생성합니다.

NVIDIA는 불과 10년 만에 고양이를 인식하려는 시도에서우주복을 입은 고양이가 달 위를 걷는

사실적인 이미지를 생성하는

데까지 발전했습니다.

생성형 AI는 인간 언어로 프로그래밍하는 새로운 종류의 컴퓨터 기술입니다.

이 능력은 중대한 의미를 지니고 있습니다. 누구나 컴퓨터가 문제를 해결하도록 지시할 수 있습니다.

하지만 이것은 컴퓨터 프로그래머만의 영역이었습니다.

하지만 이제 모두가 프로그래머입니다.

생성형 AI는 PC, 인터넷, 모바일 및 클라우드와 같은새로운 컴퓨팅 플랫폼입니다.

그리고 이전 컴퓨팅 시대와 마찬가지로 퍼스트무버들은새로운 애플리케이션을 개발하고 새로운

회사를 설립하여 생성형 AI의 자동화 및 공동 생성 기능을활용하고 있습니다.

Debuild를 사용하면 사용자가 원하는 것을 설명하는 것만으로웹 애플리케이션을 설계하고 배포할 수 있습니다.

문법은 맥락을 고려하는 작성 어시스턴트입니다.

Tabnine은 개발자가 코드를 작성하는 데 도움을 줍니다.

Omnekey는 맞춤형 광고 및 문구를 생성합니다.

Kore.ai는 가상 고객 서비스 상담원입니다.

Jasper는 마케팅 자료를 생성합니다. 또한 Jasper는 약 50억 개의 단어를 작성하여

첫 번째 초안을 생성하는 시간을 80%까지 줄여 줍니다.

Insilico는 AI를 사용하여 신약 설계를 가속화합니다.

Absci는 AI를 사용하여 치료 항체를 예측합니다.

생성형 AI는 거의 모든 산업을 재창조할 것입니다.

많은 기업에서 시장에 출시될 우수한 생성형 AI API 중하나를 사용할 수 있습니다.

일부 기업은 자신들의 고유 데이터, 즉 해당 분야의 전문가 맞춤형 모델을 구축해야 합니다.

회사의 안전, 개인정보 보호 및보안 요구 사항에 맞게 사용

가이드라인을 설정하고 모델을 개선해야 합니다.

업계는 맞춤형 대규모 언어 모델을 위한 TSMC와같은 파운드리가 필요합니다.

오늘 NVIDIA는 고객의 고유 데이터로 그들의

영역별 작업을 위해 훈련된 맞춤형 LLM 및

생성형 AI를 구축,

개선 및 운영해야 하는 고객을 위한 클라우드

서비스인 NVIDIA AI Foundations를 발표합니다.

NVIDIA AI Foundation은 언어,

시각 및 생물학 모델 제작 서비스로 구성됩니다.

NVIDIA Nemo는 맞춤형 언어 텍스트-

텍스트 생성 모델 구축을 위한 제품입니다.

고객은 모델을 가져오거나 GPT-8, GPT-43에서 GPT-5300억 매개변수에 이르는 Nemo 사전 훈련된 언어 모델을

시작할 수 있습니다.

NVIDIA AI 전문가는 고유 모델을 만드는 것부터 운영에 이르기까지 전체 과정 전반에 걸쳐 사용자와 협력할 것입니다.

함께 보시죠.

NVIDIA의 430억 기본 모델과 같은 생성적 모델은 수십억 개의 문장,

수조 개의 단어를 학습합니다.

모델이 수렴됨에 따라 모델의 임베딩 공간 속 가중치에 포착된

단어와 기본 개념 간의 관계를 이해하기 시작합니다.

트랜스포머 모델은 단어 시퀀스 내에서 종속성과 관계를 학습하도록 설계된

셀프 어텐션 메커니즘을 활용합니다.

그 결과 모델은 ChatGPT와 같은 경험을 위한 기반,

이러한 생성적 모델에는 방대한 양의 데이터가 필요합니다.

데이터 처리 및 분산 학습을 위한 심층적인 AI 전문 지식,

학습, 배포및 혁신 속도 유지를 위한 대규모 컴퓨팅을 제공합니다.

엔터프라이즈는 NVIDIA DGX 클라우드에서 실행되는 NVIDIA NeMo 서비스를 통해

생성적 AI 채택을 빠르게 실현할 수 있습니다.

가장 빠른 길은 NVIDIA의 최첨단 사전 학습 기초 모델로

시작하는 것입니다.

NeMo 서비스를 사용하면 조직에서 쉽게 모델을 맞춤화하고

P-튜닝을 통해 전문 기술을 학습시킬 수 있습니다.

재무 문서 요약,

브랜드 콘텐츠 제작,

맞춤형 쓰기 스타일로 이메일 작성 등이 가능합니다.

모델을 독점 지식 기반에 연결하여

정확하고 비즈니스에 맞는

최신 응답을 받을 수 있습니다.

다음으로 안전망을 제공하기 위해 로직을 추가하고

입력, 출력, 유해성 및 편향 임계값을 모니터링함으로써

지정된 도메인 내에서 작동하게 하고

원치 않는 응답을 방지합니다.

모델을 작동시킨 뒤 사용자 상호 작용을 바탕으로

강화 학습을 통해 지속적으로 개선합니다.

NeMo의 플레이그라운드에서는 클라우드 API로넘어가기 전에 빠른 프로토타입 작업을 통해

더 큰 규모의 평가 및 애플리케이션 통합이 가능합니다.

지금 NVIDIA NeMo 서비스에 등록하여

제어 가능한 맞춤형 AI 모델로

엔터프라이즈 지식을 코드화하세요.

Picasso는 라이선스 또는 독점 콘텐츠로 학습된 맞춤형 모델을 구축하려는

고객을 위한 시각 언어 모델 제작 서비스입니다.

함께 보시죠.

생성형 AI는 시각적 콘텐츠 생성 방식을 바꾸고 있습니다.

하지만 잠재력을 완전히 실현하려면 막대한 저작권 해소 데이터, AI 전문가, AI 슈퍼컴퓨터가 필요합니다.

NVIDIA Picasso는 생성형 AI 기반 이미지, 영상 및 3D 애플리케이션을

구축 및 배포하기 위한 클라우드 서비스입니다.

이를 통해 엔터프라이즈, ISV 및 서비스 제공업체는

자체 모델을 배포할 수 있습니다.

NVIDIA는 최고의 파트너와 협력하여

모든 산업에 생성적 AI 기능을 제공하고 있습니다.

조직에서는 NVIDIA Edify 모델부터 시작하여

자사 데이터로 학습시키고 제품이나 서비스를 만들 수 있습니다.

이러한 모델은 이미지, 비디오 및 3D 에셋을 생성합니다.

생성적 AI 모델에 액세스하기 위해

애플리케이션이 텍스트 프롬프트와 메타데이터가 있는

API 호출을 Picasso로 전송합니다.

Picasso는 NVIDIA DGX 클라우드에서 실행되는 적절한 모델을 사용하여

생성된 자산을 애플리케이션에 다시 보낼 수 있습니다.

이는 사실적인 이미지, 고해상도 영상또는 상세한 3D 지오메트리일 수 있습니다.

생성된 자산을 편집 도구 또는 NVIDIA Omniverse로 가져와서 사실적인 가상 세계,

메타버스 애플리케이션, 디지털 트윈 시뮬레이션을 구축할 수 있습니다.

NVIDIA DGX 클라우드에서 실행되는 NVIDIA Picasso 서비스를 통해

생성형 AI 애플리케이션 구축에 필요한

학습, 최적화, 추론을 간소화할 수 있습니다.

NVIDIA Picasso 가 어떻게 여러분의 애플리케이션에 혁신적인 생성적 AI 기능을 제공할 수 있는지 알아보세요.

NVIDIA는 Getty Images가 Picasso 서비스를 사용하여 신뢰할 수 있는 라이선스가 부여된 풍부한 전문

이미지 및 비디오 에셋 라이브러리를 기반으로 학습된 Edify-이미지 및 Edify- 비디오 생성 모델을 제작하게 되어 기쁩니다.

기업은 간단한 텍스트 또는 이미지 프롬프트로 맞춤형이미지 및 영상을 만들 수 있습니다.

Shutterstock은 전문 이미지, 3D 및 영상 자산

라이브러리에서 훈련된 Edify-3D 생성 모델을 개발하고 있습니다.

Shutterstock은 크리에이티브 제작, 디지털 트윈 및 가상 협업을 위한 3D 자산의

생성을 간소화하여 기업이 이러한 워크플로우를 더 빠르고쉽게 구현할 수 있도록 합니다.

또한 크리에이티브의 미래를 위한 차세대 AI 기능을구축하고 마케터와 크리에이티브

전문가의 일상적인 워크플로우에 생성형 AI를 통합하기

위해 Adobe와의 오랜 파트너십을 대폭 확장하게 되어 기쁩니다.

새로운 생성형 AI 모델은 이미지 생성, 영상,

3D 및 애니메이션에 최적화될 것입니다.

아티스트의 권리를 보호하기 위해 Adobe는 상업적 실행 가능성과 Adobe의 콘텐츠 정품 인증 이니셔티브에

기반한 적절한 콘텐츠 저작자 표시에 중점을 두고 개발하고 있습니다.

NVIDIA가 세 번째로 중요하게 여기는 분야는 생물학입니다.

신약 개발은 R&D에만 2,500억 달러를

투자하는 거의 2조 달러 규모의 산업입니다.

NVIDIA Clara는 이미징, 기기, 유전체학 및 약물

개발용 헬스케어 애플리케이션 프레임워크입니다.

현재 업계에서는 생성형 AI를 통해 질병 대상을 발견하고,

새로운 분자 또는 단백질 기반 약물을 설계하며, 신체의 약품의 행동을 예측하고 있습니다.

Insilico Medicine, Exscientia, Absci 및 Evozyme은 수백 곳의 새로운 AI 신약 개발 스타트업 중 하나입니다.

이들 중 몇몇 스타트업은 새로운 표적 또는 약물 후보를 발견하고 인간 임상시험을 시작했습니다.

BioNeMo는 연구원들이

고유한 데이터로 맞춤형 모델을 만들고 미세 조정하고 서비스를 제공하도록 돕습니다.

함께 보시죠.

신약 개발에는 3가지 핵심 단계가 있습니다.

질병을 일으키는 생물학적 원인을 파악하고

저분자, 단백질, 항체 등 새 분자를 설계하고

마지막으로 분자가 서로 상호 작용하는 방식을 선별합니다.

현재 생성적 AI는 신약 개발 프로세스의 모든 단계를 혁신하고 있습니다.

NVIDIA BioNeMo 서비스는 신약 개발을 위한

최첨단 생성적 AI 모델을 제공합니다.

클라우드 서비스로 사용할 수 있어 가속화된 신약 개발 워크플로우에 쉽게 즉시 액세스할 수 있습니다.

BioNeMo에는 3D 단백질 구조 예측을 위한 AlphaFold, ESMFold 및 OpenFold와 등의

모델이 포함되어 있습니다.

ProtGPT는 단백질 생성을 예측하며,

ESM1 및 ESM2는 단백질 특성을 예측하고

MegaMolBART 및 MoFlow는 분자 생성을,

DiffDock은 분자 도킹을 지원합니다.

신약 개발팀은 BioNeMo의 웹 인터페이스나클라우드 API를 통해

신약 개발 가상 선별을 위한

다음은 NVIDIA BioNeMo를 사용하는 예시입니다.

모델을 사용할 수 있습니다.

생성적 모델은 이제 단백질 아미노산 서열을 읽고

몇 초 만에 정확하게 대상 단백질의 구조를 예측할 수 있습니다.

또한 약물의 체내 작용을 최적화하는 바람직한 ADME 특성을 가진 분자를 생성할 수 있습니다.

생성적 모델은 단백질과 분자의3D 상호 작용도 예측하여

최적의 신약 후보 발견을 앞당길 수 있습니다.

또한 NVIDIA DGX Cloud BioNeMo는 모델 추가 최적화와 학습을 위한 온디맨드 슈퍼 컴퓨팅 인프라도 제공하므로

팀은 귀중한 시간과 비용을 절감하고 생명을 구하는 약품을 발견하는 데 집중할 수 있습니다.

여기 새로운 AI 신약 개발 파이프라인이 있습니다.

NVIDIA BioNeMo 서비스 액세스를 신청하세요.

NVIDIA는 신약 개발 및 가상 스크리닝의 엔드 투 엔드 워크플로우를 포괄하는

BioNeMo에 모델을 포함시키기 위해 업계와 계속 협력할 것입니다.

Amgen, AstraZeneca, Insilico Medicine, Evozyne, Innophore 및 Alchemab Therapeutics는 BioNeMo의 얼리 액세스 사용자입니다.

NVIDIA AI Foundations는 맞춤형 언어 모델 및 생성형 AI를 구축하기 위한 클라우드 서비스이자 파운드리입니다.

딥 러닝은 10년 전 AlexNet 이래로 자율주행, 로보틱스, 스마트 스피커 등 거대한 새로운 시장을 개척해 왔으며,

우리가 쇼핑하고, 뉴스를 소비하고, 음악을 즐기는 방식을 재창조했습니다.

이것은 사실 빙산의 일각일 뿐이죠.

생성형 AI가 새로운 기회의 물결을 일으키며 추론 워크로드의 단계적 증가를 주도하면서

AI는 변곡점을 맞이하고 있습니다.

AI는 이제 음성, 텍스트, 이미지, 영상 및 3D 그래픽을 넘어 단백질 및 화학 물질에 이르기까지 다양한 데이터를 생성할 수 있습니다.

생성형 AI를 처리하기 위해 클라우드데이터센터를 설계하는 것은 엄청난 과제입니다.

한편으로는, 단일 유형의 가속기는 데이터센터를 탄력적으로작동시키고 예측 불가능한 트래픽의

고점과 저점을 처리할 수 있기 때문에 이상적입니다.

반면, 어느 가속기도 알고리즘, 모델, 데이터 유형 및 크기의 다양성을 최적으로 처리할 수 없습니다.

NVIDIA의 One Architecture 플랫폼은 가속화와 탄력성을 모두 제공합니다.

오늘, 네 가지 컨피규레이션 - 하나의 아키텍처 - 하나의 소프트웨어 스택으로 구성된 새로운 추론 플랫폼을 발표합니다.

각 구성은 워크로드 분류에 맞게 최적화되어 있습니다.

AI 영상 워크로드의 경우, 영상 디코딩 및 트랜스코딩, 영상 콘텐츠 조정,

배경 교체, 조명 켜기, 아이 콘택트, 전사,실시간 언어 번역과 같은 화상 통화

기능에 최적화된 L4를 제공합니다.

현재 대부분의 클라우드 영상은 CPU에서 처리됩니다.

1대의 8GPU L4 서버가 AI 영상 처리를 위해 100대 이상의 듀얼 소켓 CPU 서버를 대체할 것입니다.

Snap은 컴퓨터 비전 및 추천 시스템을 위한 NVIDIA AI의 선도적인 사용자입니다.

Snap은 AV1 영상 처리, 생성형 AI 및 증강 현실을 위해 L4를 사용합니다.

Snapchat 사용자는 매일 수억 개의 영상을 업로드합니다.

Google에서는 오늘 GCP에서 NVIDIA L4를 발표했습니다.

NVIDIA와 Google Cloud는 L4에 주요 워크로드를 배포하기위해 노력하고 있습니다.

다섯 가지 하이라이트를 소개해드리겠습니다.

첫째, NVIDIA는 Wombo 및 Descript와 같은 클라우드 서비스를 위한 생성형 AI 모델의 추론을 가속화하고 있습니다.

둘째, Triton 추론 서버를 Google Kubernetes Engine 및 VertexAI와 통합하고 있습니다.

셋째, NVIDIA Spark-RAPIDS를 통해 Google Dataproc을 가속화하고 있습니다.

넷째, AlphaFold와 UL2 및 T5 대규모 언어 모델을 가속화하고 있습니다.

다섯째, 3D 및 AR 경험을 렌더링하는 Google Cloud의 몰입형 스트림을 가속화하고 있습니다.

이번 협력을 통해 Google GCP는 프리미어 NVIDIA AI 클라우드가 되었습니다.

NVIDIA의 협업에 관한 더 많은 내용을 곧 전해드리기를 기대합니다.

그래픽 렌더링 및 텍스트-이미지와 텍스트-영상 같은 생성형 AI, Omniverse를 위한 L40을 발표합니다.

L40은 가장 인기 있는 클라우드 추론 GPU인 NVIDIA T4보다 성능이 최대 10배 뛰어납니다.

Runway는 생성형 AI의 선구자입니다.

이들 연구 팀은 Stable Diffusion과 이전 버전인 Latent Diffusion의핵심 크리에이터였습니다.

Runway는 콘텐츠 제작 및 편집을 위한 생성형 AI 모델을 발명하고 있습니다.

30개 이상의 AI Magic Tools를 갖춘 이 기업들의 서비스는 클라우드에서 모두 창의적인 프로세스를 혁신하고 있습니다.

한번 살펴보죠.

Runway를 통해 누구나 놀라운 AI 기반 비디오 편집 및 이미지 제작 도구를 이용할 수 있습니다.

로컬 또는 클라우드에서 실행되는 최신 세대의 NVIDIA GPU를 기반으로 Runway는

몇 번의 브러시질 만으로도 영상에서 개체를 제거할 수 있습니다.

아니면 입력 이미지만 사용하여 비디오에 다른 스타일을 적용하거나

영상의 배경 또는 전경을 변경할 수 있습니다.

기존 도구로 몇 시간이 걸리던 작업을 이제는 전문 방송과 같은 품질로 불과 몇 분 만에

완료할 수 있습니다.

Runway는 오픈 소스 프로젝트인 CV-CUDA를 활용하여 이를 수행하는데, 이 프로젝트는 개발자가

컴퓨터 비전 워크로드를 위해 아주 효율적인 GPU 가속 전처리 및 후처리 파이프라인을 구축하고 클라우드로 확장하도록 지원합니다.

NVIDIA 기술을 통해 Runway는 불가능을 가능케 하여 콘텐츠 크리에이터에게 최고의 경험을 제공합니다.

이전에는 전문가들만 할 수 있던 것을 이제 여러분도 할 수 있습니다.

실제로 Runway는 아카데미상 후보에 오른 할리우드 영화에서도 사용되며 NVIDIA는 이 기술을

전 세계 크리에이터에게 제공하고 있습니다.

ChatGPT와 같은 대규모 언어 모델은 상당히 새로운 추론 워크로드입니다.

GPT 모델은 메모리 및 계산 집약적입니다.

또한 추론은 대량의 스케일아웃 워크로드이며 표준 범용 서버가 필요합니다.

ChatGPT와 같은 대규모 언어 모델 추론을 위해 새로운 Hopper GPU,

즉 듀얼 GPU NVLINK가 탑재된 PCIE H100을 발표합니다.새로운 H100에는 94GB의 HBM3 메모리가 있습니다.

H100은 1,750억 개 매개변수의 GPT-3을 처리할 수 있습니다

또한 범용 PCIE 서버를 지원하여 쉽게 확장할 수 있습니다.

현재 클라우드에서 ChatGPT를 실질적으로 처리할 수 있는 유일한 GPU는 HGX A100입니다.

GPT-3 처리용 HGX A100과 비교했을 때, 듀얼 GPU NVLINK를 사용하는 H100 4쌍의 표준 서버는

최대 10배 빠릅니다.

H100은 대규모 언어 모델 처리 비용을 대폭 절감할 수 있습니다.

Grace Hopper는 Grace CPU와 Hopper GPU를 초당 900GB/s의 응집적인 칩 간 인터페이스로

연결하는 새로운 슈퍼칩입니다.

Grace Hopper는 추천 시스템 및 대규모 언어 모델에 대한 AI 데이터베이스와 같은 거대한 데이터 세트를

처리하는 데 이상적입니다.

현재 CPU는 대용량 메모리, 저장 및 대형 쿼리 임베딩 테이블을 가지고 추론을 위해 결과를 GPU로 전송합니다.

Grace-Hopper를 통해 Grace는 임베딩 테이블을 쿼리하고 결과를 PCIE보다

7배 빠른 고속 인터페이스를 통해 Hopper로 직접 전송합니다.

고객은 몇 배 더 큰 규모의 AI 데이터베이스를 구축하기를 원합니다.

이때 Grace-Hopper는 이상적인 엔진입니다.

다양한 AI 워크로드를 위한 하나의 아키텍처이자 최대의 데이터센터

가속과 탄력성을 겸비한 NVIDIA의 추론 플랫폼입니다.

세계 최대 규모의 산업은 물리적 제품을 만들지만디지털 방식으로 구축하기를 원합니다.

Omniverse는 디지털과 물리적 환경을 연결하는산업 디지털화를 위한 플랫폼입니다.

이는 물리적 복제본을 만들기 전에 산업이 물리적 제품 및 공장을 디지털식으로 설계, 구축,

운영 및 최적화할 수 있도록 지원합니다.

디지털화는 효율성과 속도를 높이고 비용을 절감합니다.

Omniverse의 한 가지 활용 사례는 실제 공장을 건설하기 전에 모든 기계가 디지털 방식으로

통합된 공장을 가상으로 불러오는 것입니다.

이를 통해 급조, 주문 변경, 공장 개장 지연이 줄어듭니다.

가상 공장 통합을 통해 전 세계 공장의 비용을 수십억 달러 절감할 수 있습니다.

반도체 업계는 5,000억 달러를 투자하여 84개의 새로운팹(fab)을 구축하고 있습니다.

2030년까지 자동차 제조업체는 300개 공장을 건설하여2억 대의 전기 자동차를 생산할 것입니다.

또한 배터리 제조업체는 100개 이상의 메가 공장을 구축하고 있습니다.

디지털화는 물류에도 변화를 가져와 전 세계 수십억 평방피트의 창고에서 상품을 운송하고 있습니다.

Amazon이 Omniverse를 사용하여 자율 창고를 자동화, 최적화 및 계획하는 방법을 살펴보겠습니다.

Amazon Robotics는 세계 최대 규모의 모바일 산업용 로봇 군단을 제조 및 배포했습니다.

이 로봇 군단의 최신 구성원은 Amazon 최초의 완전 자율 물류창고 로봇인 Proteus입니다.

Proteus는 고급 안전, 인지 및 내비게이션 기술을 사용하여 시설 내부를 이동하도록 제작되었습니다.

Omniverse에 구축된 NVIDIA Isaac Sim이 물리적으로 정확한 포토리얼 시뮬레이션을 제작하여

Proteus 배포 가속화를 지원하는 방법을 살펴보겠습니다.

Proteus는 카메라, 라이더 및 초음파 센서 등자율 주행 소프트웨어 시스템을 위한

여러 센서들을 탑재하고 있습니다.

Proteus 팀은 신경망의 성능을 향상해야 했는데, 이 뉴럴 네트워크는 로봇이 기준 마커를 읽고 지도에서

자신의 위치를 판정하는 데 도움이 됩니다.

로봇 센서 입력에 의해 구동되는 ML 모델을 학습시키려면 올바른 데이터가 대량으로 필요합니다.

Amazon Robotics는 Isaac Sim의 Omniverse Replicator를 사용하여 대규모의 사실적인 합성 데이터 세트를 생성함으로써

마커 감지 성공률을 88.6%에서 98%로 높였습니다.

Omniverse Replicator에서 생성한 합성 데이터 덕분에 개발 시간도 수개월에서 며칠로 줄었습니다.

실제 데이터만 사용할 때보다 모델을 훨씬 빠르게반복 테스트하고 학습시킬 수 있었기 때문입니다.

확장되는 Proteus 로봇의 새로운 자율 기능을 지원하기 위해 Amazon Robotics는

대규모 다중 센서, 다중 로봇 시뮬레이션을 구축하여 시뮬레이션과 현실 사이의 간극을 좁히기 위해 노력하고 있습니다.

Amazon Robotics는 Omniverse를 통해 완전한 충실도의 창고 디지털 트윈으로 운영을 최적화할 것입니다.

합성 데이터를 생성하든 새로운 수준의 자율성을 개발하든, Omniverse의 Isaac Sim은

Amazon Robotics 팀이 시설 전체에 Proteus를 배포할 때 시간과 비용을 절약하는 데 도움이 됩니다.

Omniverse에는 디지털화를 위한 고유한 기술이 있습니다.

또한 Omniverse는 팀이 협업하여 가상 세계와 디지털 트윈을 만들 수 있는 공통 언어 역할을 하는

최고의 USD 개발 플랫폼입니다.

Omniverse는 물리 법칙을 반영하는 물리 기반입니다.

이는 로보틱 시스템에 연결하고 하드웨어 인 더 루프로 작동할 수 있습니다.

생성형 AI를 탑재하여 가상 세계의 창조를 가속화합니다.

또한 Omniverse는 방대한 규모의 데이터 세트를 관리할 수 있습니다.

NVIDIA는 모든 분야에서 Omniverse를 상당히 업데이트했습니다.

함께 보시죠.

약 30만 명의 크리에이터와 디자이너가 Omniverse를 다운로드했습니다.

Omniverse는 툴이 아니라 USD 네트워크이자 공유 데이터베이스이며,

산업 전반에서 사용되는 디자인 툴들에 연결되는 패브릭입니다.

업계 최고의 툴들로 만든 에셋을 연결하고 구성하고 시뮬레이션합니다.

저희는 Omniverse 연결이 성장하게 되어 기쁘게 생각하고 있습니다.

각 연결은 한 플랫폼의 에코시스템과 다른 모든 플랫폼의 에코시스템을 연결합니다.

Omniverse 네트워크의 네트워킹은 기하급수적으로 증가하고 있습니다.

현재 Bentley Systems LumenRT가 연결되어 있습니다.

Siemens Teamcenter, NX 및 Process Simulate, Rockwell Automation Emulate 3D, Cesium, Unity 등도 마찬가지입니다.

이제 3조 달러 규모의 자동차 산업의 디지털화를

살펴보고 자동차 기업들이 워크플로우에서 Omniverse를어떻게 평가하는지 살펴보겠습니다.

Volvo Cars와 GM은 Omniverse USD Composer를사용하여 에셋 파이프라인을 연결하고 통합합니다.

GM은 Alias, Siemens NX, Unreal, Maya 및 3ds Max를 사용하여 디자이너,

조각가 및 아티스트를 연결하고 구성 요소를 가상으로자동차의 디지털 트윈에 조합합니다.

엔지니어링 및 시뮬레이션 측면에서는, Omniverse에서 Powerflow 공기 역학을 시각화합니다.

차세대 Mercedes-Benz와 Jaguar Land Rover 자동차를 위해, 엔지니어들은 Omniverse의 Drive Sim을

사용하여 AI 모델을 훈련하고 가상 NCAP 주행 테스트에 대한 활성 안전 시스템을 검증하며 실제 주행

시나리오를 시뮬레이션하기 위해 합성 데이터를 생성합니다.

Omniverse의 생성형 AI는 이전의 주행 경로를 3D로 재구성하여

과거의 경험을 재연하거나 수정할 수 있도록 합니다.

Idealworks와 협력하고 있는 BMW는 Omniverse의 Isaac Sim을사용하여 공장 로봇을 훈련시키는

합성 데이터와 시나리오를 생성하고 있습니다.

Lotus는 Omniverse를 사용하여 용접 스테이션을 가상으로 조립하고 있습니다.

Toyota는 Omniverse를 사용하여 공장의 디지털 트윈을 구축하고 있습니다.

Mercedes-Benz는 Omniverse를 사용하여 새로운 모델을 위한 조립 라인을 구축, 최적화 및 계획합니다.

Rimac과 Lucid Motors는 자동차를 충실도 높게 표현하는 실제 디자인 데이터로 디지털 스토어를 구축하기 위해 Omniverse를 사용하고 있습니다.

BMW는 Omniverse를 사용하여 전 세계 약 36개 공장에서 운영을 계획하고 있습니다.

그리고 실제 공장이 개장하기 2년 전인 현재, Omniverse에서 완전히 새로운 EV 공장을 구축하고 있습니다.

확인해 보시죠.

전 세계 산업이 향후 3년 동안 3.4조 달러 이상을 투자하면서 디지털화를 가속할 전망입니다.

BMW는 자동차 디지털화 분야에서 우위를 점하기 위해 노력하고 있습니다.

NVIDIA Omniverse 및 AI를 통해 BMW는 새로운 공장을 그 어느 때보다 빠르게 구축하고 더 효율적으로 생산합니다.

그 결과 상당한 절감이 이뤄집니다.

모든 것은 계획에서 시작됩니다.많은 도구와 데이터 세트,

전문가를 연결해야 하는 복잡한 프로세스입니다.

지금까지 BMW는 데이터가 다양한 시스템과 도구에서 별도로 관리되기 때문에 한계를 겪었습니다.

이제는 그 모든 것을 바꿨습니다.

BMW는 기존 도구, 노하우 및 팀을 통합된 뷰로 연결하는 맞춤형 Omniverse 애플리케이션을

개발하고 있습니다.

Omniverse는 클라우드 네이티브이며 클라우드에 구애받지 않기 때문에 팀은 어디서든 가상 공장을 통해 협업할 수 있습니다.

저는 2025년에 개장하는 헝가리 데브레첸의 새 전기차 공장을 위한 가상 계획 세션에 참여하려고 하는데요.

함께 참여해 보시죠.

계획 담당자 1: 아, Milan이 왔네요.

Milan: 안녕하세요, 여러분!

계획 담당자 1: 안녕하세요, Milan. 바디 샵을 위한 최적화 루프를 작업하던 중입니다.

보시겠어요?

Milan: 감사합니다. 꼭 보고 싶네요. 그리고 친구를 초대하고 싶습니다.

계획 담당자 1: 그러세요.

Jensen: 안녕하세요, Milan! 만나서 반가워요.

Milan: Jensen, 가상 계획 세션에 오신 것을 환영해요.

Jensen: 초대해 주셔서 고마워요. 지금 뭘 보고 있는 거죠?

Milan: 이 팀은 데브레첸의 디지털 트윈에서 로봇 셀 작업을 하고 있는 글로벌 계획 팀입니다.

Matthias, 현황을 설명해 주세요…

Matthias: 방금 생산 컨셉에 변경이필요하다는 사실을 알게 됐습니다.

이제 새로운 로봇을 셀에 추가할 레이아웃을 재구성하고 있습니다.

계획 담당자 2: 좋아요. 하지만 물류 측면에서 새로운 로봇을 추가하면 스토리지 컨테이너를 옮겨야 합니다.

계획 담당자 3: 알겠습니다. 새 로봇을 넣어 보죠.

Matthias: 완벽합니다. 하지만 한 번 더 확인해 보죠.셀을 실행할 수 있나요?

아주 좋습니다.

Jensen: Milan, 정말 놀랍네요!

가상 공장 통합은 모든 산업에 필수적입니다.

우리 팀이 함께 해 낸 일을 보니 정말 자랑스럽네요. 축하드립니다!

Milan: 저희는 현지에서 최적화하기 위해 전 세계적으로 노력하고 있습니다.

계획 후에는 운영이 매우 중요한데, 저희는 이미 시작했죠!

가상 공장의 출시를 기념하기 위해 최초의 디지털 공장 오픈에 여러분을 초대합니다.

Jenson: 영광입니다. 해 보자고요!

자동차 회사는 거의 1,400만 명의 직원을 고용하고 있습니다.

디지털화는 업계의 효율성, 생산성 및 속도를 향상시킵니다.

Omniverse는 산업 디지털화를 실현하는 디지털-물리적 운영 체제입니다.

오늘 NVIDIA는 Omniverse를 실행하도록 설계된 세 가지 시스템을 발표합니다.

우선 NVIDIA Ada RTX GPU 및 Intel의 최신 CPU 기반의 차세대 워크스테이션을 출시합니다.

이 새로운 워크스테이션은 레이 트레이싱, 물리 시뮬레이션, 뉴럴 그래픽 및 생성형 AI를 수행하는 데 이상적입니다.

이는 3월부터 Boxx, Dell, HP 및 Lenovo에서 구매할 수 있습니다.

두 번째는 Omniverse에 최적화된 새로운 NVIDIA OVX 서버입니다.

OVX는 L40 Ada RTX 서버 GPU와 새로운 BlueField-3로 구성됩니다.

OVX 서버는 Dell, HPE, Quanta, Gigabyte, Lenovo 및 Supermicro에서 구매할 수 있습니다.

칩, 시스템, 네트워킹 및 소프트웨어를 포함한 Omniverse 스택의 각 계층은 새로운 발명품입니다.

Omniverse 컴퓨터를 구축 및 운영하려면 정교한 IT 팀이 필요합니다.

저희는 Omniverse를 빠르고 쉽게 확장하고 참여할 수 있게 만들 것입니다.

함께 보시죠.

세계 최대 산업들이 물리적 프로세스를디지털화하기 위해 경쟁하고 있습니다.

오늘날 그것은 복잡한 사업입니다.

NVIDIA Omniverse Cloud는 관리형 Omniverse Cloud API, 워크플로, NVIDIA OVX에서 실행되는 맞춤형 애플리케이션에

즉각적이고 안전한 액세스를 제공하는 플랫폼형 서비스형 클라우드입니다.

엔터프라이즈 팀은 웹 브라우저 Omniverse Launcher 또는 맞춤 구축된 통합을 통해

관리형 서비스 제품군에 액세스합니다.

Omniverse Cloud에 들어가면 엔터프라이즈 팀은 즉시 기초 애플리케이션과

워크플로우에 액세스, 확장 및 게시하여 가상 월드를 조합 및 구성하거나

인지 AI의 학습을 위한 데이터를 생성하거나

자율주행 자동차를 테스트 및 검증하거나

자율 로봇을 시뮬레이션할 수 있습니다.

이는 공유 데이터에 액세스하고 데이터를 Omniverse Nucleus에 게시합니다.

RTX 워크스테이션에서 선호하는서드 파티 디자인 도구로 작업하는 디자이너와 엔지니어들은

편집을 Nuclues로 병렬 게시할 수 있습니다.

그런 다음 Omniverse에서 통합 모델을반복하거나 볼 준비가 되면

웹 브라우저를 열고 로그인하기만 하면 됩니다.

프로젝트와 팀이 확장되면 Omniverse Cloud는 컴퓨팅 리소스 및 라이선스를

필요에 따라 프로비저닝함으로써 비용을 최적화하는 데 도움을 줍니다.

그리고 새로운 서비스와 업그레이드는실시간 업데이트를 통해 자동으로 제공됩니다.

Omniverse Cloud를 사용하면 엔터프라이즈는 주요 산업 워크플로 전반에서

효율을 높이고, 비용과 낭비를 줄이고,혁신으로 향하는 길을 가속하여

통합된 디지털화 및 협업을 빠르게 실현할 수 있습니다.

Omniverse에서 만납시다!

완전 관리형 클라우드 서비스인 NVIDIA Omniverse Cloud를 발표합니다.

NVIDIA는 Microsoft와 협력하여 Omniverse Cloud를 전 세계 산업에 제공합니다.

Azure에서 호스팅하며 Microsoft의 풍부한 스토리지, 보안, 애플리케이션 및 서비스 포트폴리오의 혜택을 누릴 것입니다.

NVIDIA는 Omniverse Cloud를 Teams, OneDrive, SharePoint 및 Azure IoT 디지털 트윈 서비스를

포함한 Microsoft 365 생산성 제품군과 연결하고 있습니다.

또한, Microsoft와 NVIDIA는 수억 명의 Microsoft 365 및 Azure 사용자에게 Omniverse를 제공하고 있습니다.

가속 컴퓨팅과 AI가 등장했습니다.

개발자는 NVIDIA를 사용하여 이전에 불가능했던 문제를 해결하기 위해 가속 및 확장 작업을 하고 있습니다.

어려운 과제는 Net Zero입니다. 모든 기업은 모든 워크로드를 가속화하여 전력을 개선해야 합니다.

가속 컴퓨팅은 풀스택, 데이터센터 규모의 계산 과제입니다.

Grace, Grace-Hopper 및 BlueField-3는 에너지 효율이 매우 높은 가속 데이터센터를 위한 새로운 칩입니다.

가속화 라이브러리는 새로운 과제를 해결하고 새로운 시장을 엽니다.

NVIDIA는 양자 컴퓨팅을 위한 cuQuantum, 조합 최적화를 위한 cuOpt, 컴퓨팅 리소그래피를

위한 cuLitho를 포함한 100개의 가속화 라이브러리를 업데이트했습니다.

NVIDIA는 2nm 이상으로 넘어갈 수 있도록 TSMC, ASML및 Synopsys와 파트너십을 맺게 되어 매우 기쁩니다.

NVIDIA DGX AI 슈퍼컴퓨터는 생성형 대규모 언어 모델의 혁신을 뒷받침하는 엔진입니다.

DGX H100 AI 슈퍼컴퓨터는 생산 중이며 전세계 OEM 및 클라우드

파트너의 확장 네트워크에서 곧 구매할 수 있습니다.

DGX 슈퍼컴퓨터는 연구를 넘어 현대적인 AI 공장으로 거듭나고 있습니다.

모든 기업은 인텔리전스를 생산할 것입니다.

NVIDIA는 Microsoft Azure, Google GCP 및 Oracle OCI와 협력하여 브라우저에서 NVIDIA AI를 모든 기업에 즉시 도입함으로써

NVIDIA DGX 클라우드와의 비즈니스 모델을 확장하고 있습니다.

DGX 클라우드는 고객에게 NVIDIA의 최고 기술과 세계 최고의 CSP를 제공합니다.

우리는 지금 AI의 아이폰 시대를 맞이하고 있습니다.

생성형 AI 추론 워크로드가 급증하고 있습니다.

NVIDIA는 네 개의 구성과 한 개의 아키텍처로 구성된 새로운추론 플랫폼을 출시했습니다.

AI 영상용 L4.

Omniverse 및 그래픽 렌더링용 L40.

대규모 언어 모델 추론 확장을 위한 H100 PCIE.

추천 시스템 및 벡터 데이터베이스를 위한 Grace-Hopper.

NVIDIA의 추론 플랫폼은 최대한의 데이터센터가속화와 탄력성을 지원합니다.

NVIDIA와 Google Cloud가 협력하여 광범위한 추론 워크로드를 배포하고 있습니다.

이번 협력을 통해 Google GCP는 프리미어 NVIDIA AI 클라우드가 되었습니다.

NVIDIA AI Foundations는 맞춤형 언어 모델 및 생성형 AI를 구축하기 위한 클라우드 서비스이자 파운드리입니다.

NVIDIA AI Foundation은 언어, 시각 및 생물학 모델 제작 서비스로 구성됩니다.

Getty Images와 Shutterstock은 맞춤형 비주얼 언어 모델을 구축하고 있습니다.

그리고 NVIDIA는 Adobe와 협력하여 크리에이티브의 미래를 위한 일련의 차세대 AI 기능을 구축하고 있습니다.

Omniverse는 산업 디지털화를 실현하는 디지털-물리적 운영 체제입니다.

Omniverse는 엔드 투 엔드 워크플로우를 통합하여 3조 달러 규모의 1,400만 명이 종사하는 자동차 산업을 디지털화할 수 있습니다.

Omniverse가 클라우드로 도약합니다.

Azure에서 호스팅되는 NVIDIA는 Microsoft와 협력하여 Omniverse Cloud를 전 세계 산업에 제공합니다.

시스템, 클라우드, 소프트웨어 파트너, 연구원, 과학자,

특히 NVIDIA 가속 컴퓨팅 에코시스템을

구축해준 훌륭한 직원 여러분께 감사드립니다.

우리는 다 함께 전 세계가 불가능한 일을 해내도록 돕고 있습니다.

즐거운 GTC 되시길 바랍니다!