NVIDIA - GTC 2023 Keynote with NVIDIA CEO Jensen Huang - 繁體中文

🎁Amazon Prime 📖Kindle Unlimited 🎧Audible Plus 🎵Amazon Music Unlimited 🌿iHerb 💰Binance

近四十年來

摩爾定律主導了電腦產業發展

而電腦產業也影響了各個產業

在成本和動力不變的情況下原先呈指數級增長的表現,也逐漸放緩

然而,運算技術則是以光速在發展進步

加速運算是超光速的曲速引擎而人工智慧即是能量來源

在產業應對可持續性、生成式人工智慧和數位化

等強大變動的同時

加速運算和

人工智慧的興起

恰逢其時

如果沒有摩爾定律,隨著運算量激增資料中心耗費的能源就會不斷飆升

企業也難以實現淨零排放的目標

而生成式人工智慧展現出的強大能力

也讓企業產生了需要重新思考產品設計和商業模式的急迫感

產業內各企業正競相推動數位化轉型,並轉變為軟體驅動的技術公司

力求成為推動變革的一方

而不是被變革所淘汰的一方

今天,我們將討論在應對這些挑戰時,加速運算和人工智慧如何成為致勝利器

以及如何把握未來的無限良機

我們將分享 NVIDIA 在完整堆疊、資料中心規模的加速運算平台的最新進展

我們將展示新的晶片和系統加速函式庫、雲端服務、人工智慧

以及開闢新市場的合作夥伴關係

歡迎來到 GTC!

GTC 是為了開發人員而舉辦的大會

全球 NVIDIA 生態系涵蓋 400 萬名開發人員40,000 家公司

和 14,000 家新創公司

我要感謝我們的鑽石級贊助商支持我們的活動並幫助 GTC 2023 取得巨大的成功

我們也非常高興歡迎各位以及總共超過 250,000 人來參加這次大會

GTC 可說是成長飛快

四年前,我們的實體 GTC 大會共計只有 8,000 人出席參加

在 2023 年的 GTC我們將向 DeepMind 的 Demis Hassabis

Argonne Labs 的 Valeri Taylor

Adobe 的 Scott Belsky

Netflix 的 Paul Debevec

蘇黎世聯邦理工學院 (ETH Zurich) 的 Thomas Schulthess 等領導者學習

我也會與 OpenAI 聯合創辦人也同是ChatGPT 創造者的 Ilya Sutskever

進行一場特別的爐邊對談

我們將舉行 650 場精彩演講,由來自學術界和全世界各大產業的優秀講者主講:

而且有超過70 場以生成式人工智慧為主題的演講

其他精彩的演講,則包含機器人的預先訓練多工模型……

有些場次將探討產生合成資料議題,這是發展人工智慧的重要方法

包含使用 Isaac Sim 來產生符合物理情況的光達點雲

也會有一些場次討論數位孿生主題從運用人工智慧運作未來的虛擬工廠

到修復失落的羅馬時代馬賽克工藝品

我們還有一些很酷的演講會探討運算儀器主題,包括大型光學望遠鏡、光子計數電腦斷層(CT)掃描系統

還有從碳捕捉和太陽能電池的材料科學到氣候科學的討論,包括我們 Earth-2 專案的發展

NVIDIA 研究團隊也會舉行幾場演講探討關於值得信賴的人工智慧,和自駕車 (AV) 安全等重要議題

還有微晶片 (堪稱最小的機器) 的運算光刻技術議題以及如何在大型強子對撞機

中納入人工智慧,解釋宇宙的不對稱性

大會聚集了全球最重要的公司從汽車與運輸

醫療保健、製造業、金融服務

零售、服裝、媒體與娛樂、電信

當然還有全球頂尖的人工智慧公司

GTC 的宗旨正是激勵全世界,告訴大家,加速運算是可以實踐的

並為科學家和研究人員運用此技術取得的成就而喝采

我是譯者

將文字轉化為創造性發現

動作轉化為動畫

以及指令轉化為行動

我能治癒病痛

探索讓人類與眾不同的組成基礎

在新威脅發生之前進行建模

並尋找治療方法來防止入侵

我遠見卓越

創造新的醫學奇蹟

並提供全新視角來看待我們的太陽

保護我們在地球上的安全

我是航海家

在海量內容中發現獨特時刻

今天,我們要宣布推出新一代產品

以及任何故事的完美場景

我是創作者

從快照建立 3D 體驗

並為我們的虛擬自我新增現實層次

我是幫手

將腦力激盪帶入生活

分享百萬開發者的智慧

並將想法轉化為虛擬世界

在其中建造北方森林

我甚至幫助轉寫這個劇本

為文字注入生命

並譜寫旋律

我是人工智慧

由 NVIDIA 深度學習技術與各地優秀人才所創造

NVIDIA 發明了加速運算來解決普通電腦無法解決的問題

不過,進行加速運算並不容易

從晶片、系統、網路、加速函式庫到重構應用程式

必須進行全方位的發明

每個經過最佳化的堆疊,都會加速一個應用領域的發展

從繪圖技術、成像、粒子或流體力學

量子物理學到資料處理和機器學習等

加速後,應用程式就可擁有驚人的加速,並擴充到多部電腦

加速和擴充的結合使我們在過去十年中為許多應用程式

實現了百萬倍的加速

解決了以往不可能解決的問題

相關的例子有很多但其中最著名的就是深度學習

2012 年,Alex Kerchevsky、Ilya Suskever 和 Geoff Hinton需要一台超快的電腦

來訓練 AlexNet 電腦視覺模型

研究人員在 GeForce GTX 580 上用 1400 萬張影像對 AlexNet 進行了訓練

處理了 262 兆次浮點運算

訓練後的模型也以巨大優勢贏得了 ImageNet 挑戰賽,為人工智慧發展掀起巨大浪潮

經過十年之後,Transformer 模型也已問世

目前任職於 OpenAI 的 Ilya 也訓練出 GPT-3 大型語言模型可預測下一個單詞

訓練 GPT-3 需要進行 3230 垓次浮點運算

比訓練 AlexNet還多一百萬倍的浮點運算

結果創造出 ChatGPT,這個全世界都聽說過的人工智慧模型

還發明出一種新的運算平台

人工智慧的「iPhone 時刻」已經到來

加速運算和人工智慧的時代來臨了

加速函式庫是加速運算的核心

這些函式庫會與連結全球產業的應用程式相連,形成了一個網路的網路

經過 30 年來的發展現在已有數千個應用程式採用了 NVIDIA 加速技術

幾乎在科學和產業的每個領域都有函式庫的蹤影

所有 NVIDIA GPU 都與 CUDA 相容,為開發人員提供了龐大的安裝基礎,並顯著擴大可及範圍

各式各樣的加速應用程式吸引了終端使用者,也為雲端服務供應商和電腦製造商

開創了廣闊的市場

一個大型市場則可提供數十億的研發資金,進一步將此技術發展至成熟階段

NVIDIA 可說是建立了加速運算的良性循環

在涵蓋光線追蹤和神經渲染、物理地球和生命科學、量子物理和化學、電腦視覺

資料處理、機器學習和人工智慧的 300 個加速函式庫和 400 個人工智慧模型中

我們今年更新了其中 100 個

提高了效能並增加整個安裝基礎的功能

讓我來重點介紹一些可解決新挑戰並開闢新市場的加速函式庫

汽車和航太產業會使用計算流體力學 (CFD)進行亂流和空氣動力學模擬

電子產業則使用 CFD 進行散熱管理設計

在這張 Cadence 的投影片中介紹了由 CUDA 加速的新 CFD 求解器

在同等系統成本下,NVIDIA A100 的運算吐吞量是 CPU 伺服器的 9 倍

或者說,在同等模擬運算吐吞量下,NVIDIA 的成本可降低 9 倍消耗的能源則可降低 17 倍

Ansys、Siemens、Cadence 和其他領先業界的 CFD 求解器現在也都採用 CUDA 來加速

在全球各地,工業用 CAE 每年使用近 1,000 億個 CPU 核心小時

加速技術可說是節省電力和實現永續發展和淨零排放的最佳方式

NVIDIA 也正與全球量子運算研究社群合作

NVIDIA Quantum 平台由資料庫和系統組成,可供研究人員發展量子程式設計模型

系統架構和演算法

cuQuantum 是可在 NVIDIA 平台上進行加速量子電路模擬的加速函式庫

IBM Qiskit、Google Cirq、百度量易伏 (Baidu Quantum Leaf)、QMWare、QuEra、Xanadu Pennylane、Agnostiq 和 AWS Bracket

都已將 cuQuantum 整合到他們的模擬框架中

Open Quantum CUDA 則是我們的混合 GPU-Quantum 程式設計模型

IonQ、ORCA Computing、Atom、QuEra、Oxford Quantum Circuits、IQM、Pasqal、Quantum Brilliance、Quantinuum、Rigetti

Xanadu 和 Anyon 也已整合 Open Quantum CUDA

要從量化雜訊和量子去相干中復原資料,需要對大量量子位元進行錯誤修正

今天,我們宣佈推出與 Quantum Machines 合作開發的量子控制連結

可將 NVIDIA GPU 連結到量子電腦以極高的速度進行錯誤修正

儘管商用量子電腦還需要一、二十年的時間發展,但我們很高興能以 NVIDIA Quantum

支持這個龐大而充滿活力的研究社群

世界各地有許多企業使用 Apache Spark來處理資料池和倉儲

SQL 查詢、圖表分析和推薦系統等工作

Spark-RAPIDS 則是 NVIDIA 的加速 Apache Spark 資料處理引擎

在全球耗費 5,000 億美元的雲端運算支出中最大一項即是資料處理費用

Spark-RAPIDS 現在可用於加速主要的雲端資料處理平台,包含 GCP Dataproc

Amazon EMR、Databricks 和 Cloudera

推薦系統會使用向量資料庫來儲存、編列索引、搜索和擷取非結構化資料的大量資料集

向量資料庫的一個新的重要用例就是大型語言模型,可在文字生成期間,

針對檢索特定領域或專有事實進行查詢

我們正在引入一個新的函式庫 RAFT,以加速編列索引、載入資料

以及為單一查詢擷取一批鄰接項目

我們正在將 RAFT 加速引入 Meta 的開放原始碼工具 FAISS (Facebook AI Similarity Search)

超過 1,000 個組織使用的 Milvus 開放原始碼向量資料庫以及具有超過 40 億次 Docker 提取的 Redis

對於要建立專有大型語言模型的組織來說,向量資料庫可說是無比重要

二十二年前,作業研究領域的科學家 Li 和 Lim 提出了一系列高難度的收送貨問題 (pickup and delivery problem)

在製造、運輸、零售和物流領域甚至是救災工作,都涉及 PDP

PDP 是旅行推銷員問題的更抽象版本是 NP-hard 問題

表示沒有可找出精確解答的有效演算法

隨著問題規模擴大,求解的時間也會呈階乘增長

NVIDIA cuOpt 使用進化演算法和加速運算分析每秒 300 億次的運作

不僅打破世界紀錄也為 Li 和 Lim 提出的難題找到了最佳解答

AT&T 定期派出 30,000 名技術人員,為 700 個地理區域的 1,300 萬客戶提供服務

今天,AT& T 以 CPU 執行工作要一整晚的時間才能完成調度最佳化

AT&T 希望能即時找到調度解決方案,持續將緊急客戶需求

和整體客戶滿意度最佳化同時針對延誤和不斷出現的新事件進行調整

採用 cuOpt 後,AT&T 就可用 100 倍的速度更快找到解決方案,並即時更新調度解決方案

AT&T 採用了全套 NVIDIA 人工智慧函式庫

除了 Spark-RAPIDS 和 cuOPT,他們還使用 Riva 支援對話式人工智慧,以及透過 Omniverse 創造數位分身

AT&T 正在利用 NVIDIA 加速運算和人工智慧來實現永續發展節省成本和新服務等目標

cuOpt 還可將物流服務最佳化每一年,全世界都會有 4,000 億個包裹,投遞到 3,770 億個站點

Deloitte、Capgemini、Softserve、Accenture 和 Quantiphi 已開始使用 NVIDIA cuOpt 幫助客戶推動營運最佳化

NVIDIA 的推論平台是由三個軟體 SDK 組成

NVIDIA TensorRT 是我們針對目標 GPU 進行最佳化的推論執行時間

NVIDIA Triton 則是一款支援 GPU 和 CPU 的多框架資料中心推論服務軟體

目前已有 40,000 名客戶使用 TensorRT 和 TritonMicrosoft Office 和 Teams、亞馬遜 (Amazon)

美國運通 (American Express) 和美國郵政服務 (U.S. Postal Service) 都是其中一員

Uber 則使用 Triton 進行每秒數十萬次的 ETA 預測

擁有超過 6,000 萬名日常使用者的 Roblox,也使用 Triton 為遊戲推薦

建立虛擬角色,以及管理內容和市場廣告等工作提供可用模型

我們也將推出一些厲害的新功能:支援模型整合的模型分析工具

多模型並行服務以及 GPT-3 LLM 的多 GPU、多節點推論

NVIDIA Triton Management Service 是我們的新軟體,可在整個資料中心

自動縮放和協調 Triton 推論執行個體

Triton Management Service 可幫助您提高部署模型的輸送量和成本效率

目前有 50-80% 的雲端影片流程都在 CPU 上處理

消耗大量電力和成本,並增加延遲

用於電腦視覺的 CV-CUDA 和用於影片處理的 VPF,則是新的雲端規模加速函式庫

CV-CUDA 包含 30 個用於偵測、分割和分類的電腦視覺運算

VPF 則是一個 python 影片編碼和解碼加速函式庫

騰訊 (Tencent) 便採用了 CV-CUDA 和 VPF每天可處理 300,000 支影片

Microsoft 也使用 CV-CUDA 和 VPF 來處理視覺搜尋

還有 Runway 這家超級酷的公司他們同樣使用 CV-CUDA 和 VPF

為他們的雲端生成人工智慧影片編輯服務處理影片

目前,網路流量中有超過 80% 都是在傳遞影片

由使用者生成的影片內容正大幅帶動成長,同時也消耗大量電力

因此,我們應該加速所有影片處理工作,並降低電力消耗

目前,CV-CUDA 和 VPF 已進入搶先體驗階段

NVIDIA 加速運算已幫助基因體研究達到里程碑:現在,在同一次就診中

醫師可以對患者抽血並當場對患者的 DNA 定序

在另一個里程碑案例中,採用 NVIDIA 技術的儀器,將全基因體定序的成本降低到僅需要 100 美元

基因體研究是合成生物學的重要工具其應用範圍從藥物研發和農業技術

到能源生產,用途廣泛

NVIDIA Parabricks 是一套人工智慧加速函式庫,用於在雲端內或儀器內進行端對端基因體分析

NVIDIA Parabricks 適用於所有公有雲和基因體研究平台,例如 Terra、DNAnexus 和 FormBio

今天,我們要宣佈推出 Parabricks 4.1 的消息,並將在來自 PacBio、Oxford Nanopore

Ultima、Singular、BioNano 和 Nanostring 的第 4 代 NVIDIA 加速基因體研究儀器上執行

全世界市值 2500 億美元的醫療儀器市場正面臨轉型

醫療儀器將轉向軟體定義,並由人工智慧驅動

NVIDIA Holoscan 是一個軟體函式庫可用於即時感測器處理系統

現在,有超過 75 家公司正在開發採用 Holoscan 的醫療儀器

今天,我們要宣佈全球醫療儀器產業界的領導者美敦力 (Medtronic),已開始和 NVIDIA 合作

要為軟體定義的醫療設備打造人工智慧平台

這個夥伴關係將為美敦力的系統建立一個共同平台,合作範圍從手術導航

擴及機器人輔助手術等工作

今天,美敦力發表了其下一代 GI Genius 系統,正是以 NVIDIA Holoscan 打造

並採用人工智慧進行結腸癌早期檢測將於今年年底左右上市

晶片產業已成為幾乎所有產業的基礎

晶片製造需要極高的精準度,製作特徵比細菌小 1,000 倍

並與單一黃金原子或與人類一條 DNA 鏈的順序相當

微影製程是在晶圓上建立圖案的流程,也是晶片製造流程的開始

包含兩個階段:光罩製作和圖案顯影

基本上,這是觸及物理學極限的成像問題

光罩就像晶片的模板光線會被阻擋

或穿過光罩到達晶圓而形成圖案

光線則由ASML EUV 極紫外微影系統產生

在此,每個系統造價都超過 2.5 億美元

ASML EUV 會使用激烈的方式來製造光線

雷射脈衝每秒向液態錫滴發射 50,000 次,將其蒸發,並放出 13.5 奈米 EUV 的電漿

接近 X 光波長

多層膜反射鏡則會將光線引導至光罩

光罩多層反射膜利用 13.5 奈米光線的干涉圖案

來建立最低 3 奈米的更精細圖形

簡直是在施魔法

晶圓定位在四分之一奈米範圍內,每秒對齊 20,000 次,以針對任何振動進行調整

進行微影製程之前的這一步,也同樣神奇

運算微影技術應用了逆向物理演算法來預測將在晶圓上

產生最終圖案的光罩上的圖案

事實上光罩上的圖案根本不像最終的圖形

運算式微影模擬了馬克士威 (Maxwell) 方程式中光線通過光學元件

並與光阻劑互相作用的行為

運算式微影是晶片設計和製造中產生最大運算工作量的一環

每年可消耗數百億個 CPU 小時

大型資料中心往往全年無休運作以建立微影系統中使用的光罩

在晶片製造商每年投入近 2,000 億美元的資本支出中,這些資料中心的運作成本也佔了一部份

隨著算法複雜度增加運算微影技術也正快速發展

使該產業能夠達到 2 奈米精確度,甚至超越此水準

NVIDIA 宣佈推出 cuLitho這是一個用於運算式微影的函式庫

cuLitho 是一項耗時近四年的巨作,透過與台積電 (TSMC)

ASML 和 Synopsys 的密切合作將運算式微影速度加快了超過 40 倍

NVIDIA H100 有 89 個光罩

目前,在 CPU 上執行的單一光罩需要兩週的時間來處理

在 GPU 上執行的 cuLitho則可在一次 8 小時內處理一個光罩

僅需要 500 台 DGX H100 的系統上以 cuLitho 進行加速,台積電可以減少用於運算式微影的

40,000 台 CPU 伺服器數量從而將功率從 35 兆瓦降低到僅 5 兆瓦

借助 cuLitho,台積電便能縮短原型週期時間、提高產量

減少製造過程中的碳足跡並為 2 奈米及更高階技術做好準備

今年 6 月起,台積電將開始採用 cuLitho 來生產

每個產業都需要加速每項工作負載,這樣我們才能節省電力並達到事半功倍

在過去十年中,雲端運算以每年 20% 的速度,增長成為一個價值 1 兆美元的龐大產業

大約有 3,000 萬台 CPU 伺服器執行了大部分處理工作

而艱鉅挑戰即將來臨

隨著摩爾定律的終結,CPU 效能的提高也伴隨了功率的增加

減少碳排放的義務,基本上則與增加資料中心的需求兩相牴觸

能源供應也限制了雲端運算的成長

其中,最重要的一點,便是資料中心必須加速每項工作負載

如果能夠加速,就能節省電力

節省下來的能源可用於推動新的成長

任何未加速的內容則會在 CPU 上處理

加速雲端資料中心的 CPU 設計點已與過去有根本上的不同

在人工智慧和雲端服務中,加速運算能夠卸載可平行的工作負載,CPU 則處理其他工作負載

如 Web RPC 和資料庫查詢等

我們已為人工智慧和雲端優先的世界設計了 Grace CPU其中人工智慧工作負載由 GPU 加速

Grace 則專精於執行單一執行緒和記憶體處理

這不僅僅是關於 CPU 晶片的問題資料中心營運商也可藉此最佳化整個資料中心的輸送量和總體擁有成本

而我們設計 Grace正是為了以雲端資料中心的規模實現高度能源效率

Grace 包含 72 個 Arm 核心,由超高速晶片內的可擴充連貫網狀架構連結

可提供每秒 3.2 TB 的頻寬

Grace Superchip 於超過每秒 900 GB 的低功耗晶片對晶片整合型介面中,在兩個 CPU 晶粒之間連接了 144 個核心

記憶體系統是 LPDDR 低功耗記憶體,就像手機中使用的一樣,我們也專門針對資料中心的使用進行強化

此系統可提供每秒 1 TB 的頻寬,相當於以目前系統 1/8 的電力即可達到 2.5 倍的頻寬

具有 144 個核心的整個 Grace Superchip 模組具備 1TB 記憶體,但大小只有 5x8 吋

此模組的功率非常低,可以氣冷方式使用

這是具有被動冷卻功能的運算模組

兩部採用 Grace Superchip 電腦可安裝在一部 1U 氣冷伺服器中

Grace 具備優異效能和能源效率,非常適合雲端運算和科學運算應用

我們以一個熱門的 Google 基準測試上測試了 Grace,此基準用於測試雲端微服務通訊的速度

Hi-Bench 套件則可測試 Apache Spark記憶體密集型資料處理

對於雲端資料中心而言,這些類型的工作負載非常重要

在微服務方面,Grace比最新一代 x86 CPU 的平均速度快 1.3 倍

在資料處理方面則快 1.2 倍

並且,在僅使用完整伺服器節點的情況下,測量結果顯示僅使用了 60% 的電力,可達到更高的效能

雲端服務供應商可為電力有限的資料中心建置 1.7 倍以上的 Grace 伺服器,每部伺服器可提高 25% 的輸送量

在採用獨立電源的情況下,Grace 可為雲端服務供應商提供 2 倍的成長機會

Grace 已開始進行打樣

Asus、Atos、GIGABYTE、HPE、QCTSupermicro、Wistron 和 ZT 都已開始打造系統

在現代軟體定義的資料中心中,執行虛擬化、網路、儲存和安全等作業的作業系統

往往會消耗資料中心近一半的 CPU 核心和相關電力

資料中心必須加速每個工作負載,以節省電力並釋放 CPU,以用於可創造營收的工作負載

NVIDIA BlueField 可卸載並加速資料中心作業系統和基礎架構軟體

目前有二十多名生態系合作夥伴,包含 Check Point思科 (Cisco)、DDN、Dell EMC

Juniper、Palo Alto Networks、Red Hat 和 VMWare

都採用了 BlueField 的資料中心加速技術,來以更效率執行自己的軟體平台

BlueField-3 已進入生產階段,並由領先的雲端服務供應商,包含百度、CoreWeave、京東 (JD.com)、Microsoft Azure

Oracle OCI 和騰訊遊戲 (Tencent Games) 所採用,以加速他們的雲端運作

NVIDIA 加速運算的起點是 DGX這是世界級的人工智慧超級電腦

也是推動大型語言模型技術突破背後的引擎

當初,就是我親手將世界上第一個 DGX 交給 OpenAI

從那時起,名列《財富》雜誌 (Fortune) 100 強的企業中已有半數都安裝了 DGX 人工智慧超級電腦

DGX 已經成為人工智慧的必備工具

DGX 的 GPU 包含了八個 H100 模組

H100 有一個 Transformer Engine用於處理像 ChatGPT 這樣令人讚嘆的模型,GPT 正是

「生成式預先訓練的 Transformer」(Generative Pre-trained Transformer) 的縮寫

8 個 H100 模組透過 NVLINK 交換器建立 NVLINK 連結,以實現完全無阻塞的運算

8 個 H100 可組成一個巨大的 GPU 來運作

運算架構是人工智慧超級電腦最重要的系統之一

400 Gbps 超低延遲 NVIDIA Quantum InfiniBand

具有網路內處理功能

可將數十萬個 DGX 節點

連接到人工智慧超級電腦中

NVIDIA DGX H100 是全球客戶建立人工智慧基礎架構的藍圖

目前已全面進入生產階段

Microsoft 已經宣佈,Azure 即將開放 H100 人工智慧超級電腦的個人預覽版,我很高興聽到這個消息

不久後,Atos、AWS、Cirrascale、CoreWeave、Dell、Gigabyte、Google、HPE、Lambda Labs、Lenovo、Oracle、Quanta 和 SuperMicro

也將陸續推出其他系統和雲端服務

DGX 人工智慧超級電腦的市場已大有成長

DGX 人工智慧超級電腦最初的用途是人工智慧研究儀器,現在正在擴展到營運領域

可全天候執行,進行調整資料和處理人工智慧等工作

DGX 超級電腦可說是當代的人工智慧工廠

人工智慧的「iPhone 時刻」已經到來

新創公司競相打造顛覆性的產品和商業模式,而老牌企業也在尋求因應之道

生成式人工智慧引發了全球企業制定人工智慧策略的迫切感

客戶需要以更輕鬆、更快速的方式使用 NVIDIA 人工智慧

因此,我們宣佈透過與 Microsoft Azure、Google GCP 和 Oracle OCI 建立合作夥伴關係,合力推出 NVIDIA DGX Cloud

立即透過瀏覽器將 NVIDIA DGX 人工智慧超級電腦帶進每家公司

DGX Cloud 已針對執行 NVIDIA AI Enterprise 而進行了最佳化,這是一組全球頂尖的加速函式庫套件

適用於人工智慧的端對端開發和部署工作

DGX Cloud 可為客戶提供最佳的 NVIDIA 人工智慧功能,和全球頂尖的雲端服務供應商服務

這一合作夥伴關係會將 NVIDIA 的生態系帶給雲端服務供應商同時擴大 NVIDIA 的營運規模和觸及範圍

這種雙贏的合作夥伴關係,將鼓勵競相採用生成式人工智慧的客戶,能從全球規模的雲端即時取得 NVIDIA 技術

對於自家商業模式能擴展到雲端領域,並達到如此速度、規模和觸及範圍,我們當然是興奮不已

Oracle Cloud Infrastructure (OCI)將成為第一個 NVIDIA DGX 雲端

OCI 具有出色效能其中包含兩層運算架構和管理網路

運算架構部分採用了具有業界最佳 RDMA 的 NVIDIA CX-7

管理網路的基礎架構處理器則採用 BlueField-3

這個組合,可說是 DGX 人工智慧超級電腦可為多租用戶的雲端服務提供的尖端技術

我們擁有 50 家 EA 企業客戶,涵蓋消費者網際網路和軟體、醫療保健

媒體與娛樂和金融服務等產業

ChatGPT、Stable Diffusion、DALL-E 和 Midjourney 已激起全世界探究生成式人工智慧的好奇心

這些應用程式的功能不僅容易上手,也令人讚嘆,在短短幾個月內,便吸引了超過一億名使用者

ChatGPT 更是有史以來成長最快速的應用程式

而且,不必進行任何訓練,即可使用只要開口要求模型做一些事情就好

無論提示精確或是模棱兩可,模型都能運作如果表達得不夠清楚

ChatGPT 也能透過對話瞭解使用者的目的

ChatGPT 所產生的文本品質也超乎想像

ChatGPT 不僅可撰寫備忘錄和作詩、整理研究論文內容、解答數學問題

為契約劃重點甚至能寫出軟體程式

ChatGPT 就像一部電腦不僅可執行軟體,也可以編寫軟體

生成式人工智慧能夠發展到這個程度,都歸功於眾多技術上的突破

首先是 Transformer 從資料的關係和相依性中,平行且大規模地學習上下文和文義

接下來,大型語言模型從大量資料中學習後

便可在未經過專門訓練的情況下,執行下游任務

還有受物理學啟發的擴散模型無須監督即可進行學習,並產生影像

在短短十多年裡我們已從努力辨認貓的模樣

進展到能夠產生穿著太空衣的貓

在月球上行走的逼真影像

生成式人工智慧儼然是一種新型態的電腦,也就是我們用人類語言設計出的電腦

能發展出這樣的能力,意義相當深遠這表示每個人都可以指揮電腦來解決問題

以往,這是只有電腦程式設計師能涉足的領域

如今,人人都可以當工程師

生成式人工智慧是一種全新的運算平台就像 PC、網際網路、行動裝置和雲端一樣

正如之前的運算時代業界先驅會創造出新的應用程式

並成立新公司以利用生成式人工智慧的自動化和共同創造能力

Debuild 則讓使用者只需解釋自己想要什麼就可以設計和部署網路應用程式

寫作輔助工具 Grammarly 可考慮上下文意涵

Tabnine 能幫助開發人員編寫程式碼

Omnekey 可生成量身打造的廣告和文案

Kore.ai 是一個虛擬客戶服務人員代理程式

Jasper 可產生行銷素材Jasper 已經寫出近50 億字

將產生初稿的時間減少了 80%

Insilico 也使用人工智慧來加速藥物設計

Absci 目前已採用人工智慧來預測治療抗體

幾乎所有產業都會因為生成式人工智慧而改頭換面

優秀的生成人工智慧 API 會陸續問世許多公司都能選擇其中一種來運用

有些專精於某領域的公司,則需要使用自己的專有資料,來建立自訂模型

他們必須設定使用量護欄並調整模型

以符合公司對安全性和隱私性的要求

以整個產業的角度來看,也需要能開發自訂大型語言模型的「鑄造廠」就像台積電之於半導體產業一樣

今天我們宣佈推出 NVIDIA AI Foundations

這款雲端服務相當適合需要建立、完善與操作

自訂大型語言模型和生成式人工智慧的客戶

該模型與人工智慧使用專有資料訓練

可供特定領域的工作使用

NVIDIA AI Foundations 由語言

視覺與生物學模型製作服務所組成

而 NVIDIA Nemo 是用於建立自訂語言

文字轉文字的生成模型

客戶可以使用自己的模型,或使用 Nemo 預先訓練的語言模型開始著手,該模型包含 GPT-8、GPT-43

到 GPT-530 B 參數

從建立專有模型到營運的整個過程,NVIDIA 人工智慧專家將與您合作

我們來看一下吧

生成式模型,如 NVIDIA 的 43B 基礎模型,是透過數十億個句子

和數萬億個單詞的訓練來學習

隨著模型收斂,人工智慧開始理解單詞與其基本概念之間的關係

並調整模型嵌入空間中的權重

Transformer 模型使用自我注意力機制

旨在學習單詞序列的相依性和關係

結果會是一個模型,為類似 ChatGPT 的體驗提供技術基礎

這些生成式模型需要非常大量的資料

資料處理和分散式訓練的深厚人工智慧專業知識

以及大規模計算才能以創新速度進行訓練、部署和維護

企業可以透過在 NVIDIA DGX Cloud 上執行的 NVIDIA NeMo 服務

快速追蹤生成式人工智慧的應用

最快的途徑,就是從 NVIDIA 最先進的

預先訓練基礎模型之一開始

各組織可以透過 NeMo 服務

使用 P-Tuning 輕鬆自訂模型,以教授專業技能

例如總結財務文件

建立品牌特定內容

以及使用個人化寫作風格撰寫電子郵件

將模型連接到專有知識庫

可確保提供最準確且最新的回應

並應用於業務中

接下來,他們可以透過新增邏輯

和監控輸入、輸出、毒性和偏差閾值來提供護欄

以便在指定域內執行

並防止意外回應

將模型投入使用後

可以透過基於使用者互動的強化學習不斷改進

在遷移到雲端 API進行更大規模的評估和應用程式整合之前

NeMo 的遊樂場可用於快速建立原型

立即註冊 NVIDIA NeMo 服務

將您企業的知識編寫進

由您控制的個人化人工智慧模型

Picasso 是製作視覺語言模型的服務,若客戶想要建立透過授權或專有內容訓練的自訂模型

此服務相當適合

我們來看一下吧

生成式人工智慧正在改變視覺內容的建立方式

但要充分發揮潛力,企業需要大量已獲得著作權授權的資料、人工智慧專家和人工智慧超級電腦

NVIDIA Picasso 是一種雲端服務

用於建構和部署生成式人工智慧影像、影片和 3D 應用程式

藉由該服務,企業、ISV 和服務供應商

就可以部署自己的模型

我們正在與主要合作夥伴合作

為每個行業提供生成式人工智慧功能

組織還可以從 NVIDIA Edify 模型入手

並根據資料進行訓練以建立產品或服務

這些模型可以生成影像、影片和 3D 資產

若要使用生成式人工智慧模型

應用程式會傳送含有文字提示和中繼資料的 API

呼叫 Picasso

Picasso 會使用在 NVIDIA DGX Cloud 上執行的適當模型

將生成資產傳回應用程式

內容可能是擬真的影像、高解析度影片或是詳細的 3D 幾何圖形

產生的資產可以輸入編輯工具或 NVIDIA Omniverse 中,以建構擬真的虛擬世界

元宇宙應用程式和數位孿生模擬

透過在 NVIDIA DGX Cloud 上執行的 NVIDIA Picasso 服務

您可以簡化建構自訂生成式人工智慧應用程式

所需的訓練、最佳化和推理

瞭解 NVIDIA Picasso 如何將顛覆性的生成式人工智慧功能引進您的應用程式

我們很高興看到 Getty Images 將使用 Picasso 服務來建立 Edify-image 和 Edify-video 生成模型

這些模型使用該服務豐富的資料庫進行訓練其中包含經授權的專業影像與影片素材

企業將能夠使用簡單的文字或影像提示建立自訂影像與影片

Shutterstock 正在開發 Edify-3D 生成模型

該模型使用專業影像、3D 和影片素材資料庫進行訓練

Shutterstock 會協助簡化 3D 素材的建立,可用於創意製作、數位孿生以及虛擬協作

讓企業能夠更快更輕鬆地實作工作流程

而我很高興宣佈我們與 Adobe 的長期合作夥伴關係頗具進展

合作目標在於為未來的創造力建立新一代人工智慧的功能

以及將生成式人工智慧整合至行銷人員和創意專業人士的日常工作流程中

全新生成式人工智慧模型會針對

圖像建立、影片、3D 和動畫進行最佳化

為了保護藝術家的權利,Adobe 的發展聚焦於商業可行性

以及透過 Adobe 「內容真實性計畫」提供適當內容歸屬

我們的第三語言領域是生物學

藥物開發是一個價值約為 2 兆的產業

其中投資到研發部門的資金共有 2,500 億

NVIDIA Clara 是用於影像、儀器、基因體學和藥物開發的

醫療照護應用程式框架

該產業開始運用生成式人工智慧來探索疾病目標

設計新分子或以蛋白質為基礎的藥物,並預測藥物在體內的行為

在數百家新興人工智慧藥物開發的新創公司之中,Insilico Medicine、Exscientia、Absci 和 Evozyme 皆屬於其中一員

其中有些新創公司已經發現了新目標或候選藥物,且已開始著手進行人體臨床試驗

BioNemo 協助研究人員使用專有資料

建立、微調和提供自訂模型

我們來看一下吧

開發過程分為三個關鍵階段

探索疾病成因的生物學

設計小分子、蛋白質或抗體等新分子

以及分子相互作用的最後篩選

如今,生成式人工智慧正在轉變藥物開發過程的每一步

NVIDIA BioNeMo 服務以雲端服務形式

提供最先進的藥物開發生成式人工智慧模型

可立即輕鬆加速藥物開發工作流程

BioNeMo 涵蓋如 AlphaFold、ESMFold 和 OpenFold 等

3D 蛋白質結構預測模型

產生蛋白質的 ProtGPT2

預測蛋白質屬性的 ESM1 和 ESM2

產生小分子的 MegaMolBart 和 MoFlow

以及分子對接的 DiffDock

藥物開發團隊可透過網路介面或網路 API

使用這些模型

以下是如何使用 NVIDIA BioNemo

進行藥物開發虛擬篩選的範例

生成式模型現在可以讀取蛋白質氨基酸序列

並在幾秒鐘內準確預測目標蛋白質的結構

還可以生成具有理想 ADME 屬性的分子,從而最佳化藥物在體內的表現

生成式模型甚至可以預測蛋白質和分子的 3D 相互作用

加速最佳候選藥物的開發

藉由 NVIDIA DGX Cloud,BioNeMo 還提供隨選的超級運算基礎架構,以進一步最佳化和訓練模型

節省團隊寶貴的時間和金錢,使他們能夠致力於開發挽救生命的藥物

新的人工智慧藥物開發流程現正推出

註冊以體驗 NVIDIA 的 BioNeMo 服務

我們將繼續與產業合作將該模型納入 BioNemo

其中包含藥物開發和虛擬篩選的端對端工作流程

Amgen、AstraZeneca、Insilico、Evozyne、Innophore 和 Alchemab Therapeutics 皆是預先體驗 BioNemo 的使用者

NVIDIA AI Foundations 是雲端服務,也是鑄造廠,能夠建立自訂語言模型和生成式人工智慧

自十年前推出 AlexNet 以來,深度學習開闢了廣大的新市場,其中包含自動駕駛、機器人以及智慧喇叭

此外也重塑了我們購物、接收新知與欣賞音樂的方式

這只是冰山一角而已

人工智慧正處於轉捩點,因為生成式 AI 已經開啟了新的機遇浪潮

推動了推論工作負載的階躍式的增長

人工智慧現在可以生成多種資料,包含語音、文字、影像、影片、3D 圖像,以及蛋白質與化學物質

設計雲端資料中心來處理生成式人工智慧是一項相當艱鉅的挑戰

一方面來看,使用單一類型的加速器是理想之選因為這讓資料中心具有彈性

也可以處理無法預測的流量尖峰和低谷

另一方面而言,卻沒有加速器能夠以最佳方式處理演算法、模型、資料類型和大小的多樣性

NVIDIA 的單一架構平台提供了加速與彈性

今天,我們宣佈推出全新的推論平台,其中有四種設定、一種架構,以及一個軟體堆疊

每種設定都針對工作負載的一個類型最佳化

對於人工智慧影片工作負載,我們針對影片解碼與轉碼、影片內容審核

以及如背景替換、重新照明、眼神交流轉譯服務與即時影片翻譯等等的通話功能

為 L4 最佳化

現今大多數的雲端影片都在 CPU 進行處理

一台 8-GPU L4 的伺服器將能夠取代一百多台用於處理人工智慧影片的的雙插槽 CPU 伺服器

Snap 是 NVIDIA 人工智慧在電腦視覺和推薦系統方面的先驅使用者

Snap 會透過 L4 使用 AV1 影片處理生成式人工智慧和擴增實境

Snapchat 的使用者每天上傳數億部影片

Google 今天宣佈在 GCP 推出 NVIDIA L4

NVIDIA 和 Google Cloud 正攜手合作幾個主要的工作負載在 L4 上加速

讓我來介紹其中五個

第一,為 Wombo 和 Descript 等客戶推論生成式人工智慧模型

第二,我們正在整合 Triton 推論伺服器與 Google Kubernetes Engine 和 VertexAI

第三,我們正在使用 NVIDIA Spark-RAPIDS加速 Google Dataproc

第四,我們正在加速 Google 的 AlphaFold以及 UL2 和 T5 大型語言模型

第五,加速 Google Cloud 渲染 3D 和擴增實境體驗的沉浸式串流

透過這次合作,Google GCP 成為首屈一指的 NVIDIA 人工智慧雲端平台

我們期待可以盡快告訴您更多關於合作的資訊

針對 Omniverse、繪圖運算渲染,以及如文字轉影像和文字轉影片的生成式人工智慧,我們宣佈推出 L40

相較於最流行的雲端推論 GPU NVIDIA T4L40 的性能最高可達 10 倍以上

Runway 是生成式人工智慧的先驅

其研究團隊是 Stable Diffusion及其前身 latent diffusion 的主要創立者

Runway 正在發明用於建立和編輯內容的生成式人工智慧模型

憑藉著 30 多種人工智慧魔術工具,他們的服務正徹底顛覆創作過程,而一切都來自雲端

我們來看一下吧

Runway 正在讓每個人都可以使用令人驚嘆的人工智慧影片編輯和影像建立工具

透過在本機或雲端執行最新一代 NVIDIA GPU 支援的 Runway

只需幾下筆觸即可從影片中刪除物件

又或是僅輸入一張影像,即可為影片套用不同樣式

或者更改影片的背景或前景

過去使用傳統工具需要數小時才能完成的工作,現在只需幾分鐘即可完成

並取得專業直播級品質的成果

Runway 是利用開放原始碼專案 CV-CUDA 來實現這一點,該專案讓開發人員能夠建立

GPU 加速的高效率前置及後置處理流程,用於電腦視覺工作負載,並擴展到雲端

藉由 NVIDIA 技術,Runway 能夠實現不可能的事情,進而提供內容創作者最佳體驗

以往僅限於專業人士的工作,現在可以由您完成

其實,就有使用 Runway 製作的電影獲得奧斯卡獎提名

而我們也正在將這項技術交到全世界的創作者手中

像 ChatGPT 這樣的大型語言模型是一種重大的全新推論工作負載

GPT模型需要大量記憶體和運算資源。

此外,推論的過程是大量且橫向擴展的工作負載,需要使用標準商用伺服器

對於如 ChatGPT 這樣的大型語言模型推論,我們宣佈推出新的 Hopper GPU

附有雙 GPU NVLINK 的 PCIE H100 全新的 H100擁有 94GB 的 HBM3 記憶體

H100 可以處理 1750 億個參數的 GPT-3

而支持商用 PCIE 伺服器,可以讓它更輕易地橫向擴充

目前雲端唯一可以實際處理 ChatGPT 的 GPU 是 HGX A100

相較於處理GPT-3的HGX A100,擁有4對雙 GPU NVLINK 的 H100 標準伺服器

速度加快了10倍。

H100 可以大幅度降低大型語言模型的處理成本

Grace Hopper 是我們的全新超級晶片,透過高速的每秒 900 GB 晶片對晶片一致性介面

來連接 Grace CPU 和 Hopper GPU

Grace Hopper 非常適合處理大型資料集,例如用於推薦系統

和大型語言模型的人工智慧資料庫

如今,具有大型記憶體的 CPU 可以儲存和查詢大型的嵌入式表格,並將結果傳輸到 GPU 進行推論

藉由 Grace-Hopper,Grace 可以查詢嵌入式表格,並透過高速介面

將結果直接傳輸到 Hopper,傳輸過程比 PCIE 快了 7 倍

客戶希望可以建立更大型的人工智慧資料庫

Grace-Hopper 是最理想的引擎

這是 NVIDIA 的推論平台是一種適用於各種人工智慧工作負載的架構

也適合最大的資料中心加速和彈性

世上最大的產業除了製造實體產品之外也希望建立數位產品

Omniverse 是一個連接數位與實體的產業數位化平台

該平台讓產業在製作實體複本之前,先以數位方式設計、建立、營運並

最佳化實體產品和工廠

數位化可提高效率和速度,也可以節省費用

Omniverse 其中一種用途是建造虛擬工廠,在建造實體工廠之前

所有機器都以數位方式整合

這降低了意外發生訂單變更和工廠開廠運作延遲的機會

虛擬工廠的整合可為全球工廠省下數十億美元

半導體產業斥資 5,000 億美元打造 84 座全新半導體製造廠

到 2030 年之前,汽車製造商將建立 300 間工廠生產 2 億輛電動車

而電池製造商也正在建造 100 多間大型工廠

數位化正在改變物流的方式,藉由全球數十億平方英尺的倉庫來運送貨物

讓我們看看 Amazon 如何運用 Omniverse 來自動化、最佳化並規劃自動化倉庫

Amazon Robotics 製造並部署世界上最大的行動工業機器人隊伍

這支機器人隊伍的最新成員是 Amazon 首款全自動倉庫機器人 Proteus

Proteus 旨在使用先進的安全、感知和導航技術在我們的設施中移動

讓我們看看基於 Omniverse 建構的 NVIDIA Isaac Sim 如何建立

真實物理情況照片的逼真模擬,以幫助加速

Proteus 具有多個感應器包括攝影機、光達和超音波感應器

提供自駕軟體系統動力

Proteus 團隊需要改善一個能夠讀取對位標記的神經網路性能,並幫助機器人

確定地圖上位置的神經網路的效能

訓練由機器人感應器輸入驅動的機器學習模型需要大量正確資料

藉由 Isaac Sim 中的 Omniverse Replicator,Amazon Robotics 能夠生成大型擬真合成資料集

將標記偵測成功率從 88.6% 提升至 98%

我們能夠比僅使用真實資料,更快地迭代測試和訓練模型

因此使用 Omniverse Replicator 生成的合成資料也加快能開發時間從幾個月縮短到幾天

為了提供不斷擴展的 Proteus 機器人隊伍全新自主功能,Amazon Robotics 正在努力縮小從模擬到現實的差距

建構大規模多感應器、多機器人模擬

藉由 Omniverse,Amazon Robotics 將透過完全擬真的倉庫數位孿生,將營運成效最佳化

我們在設施中部署 Proteus,無論是產生合成資料還是開發新等級的自動駕駛

Omniverse 上的 Isaac Sim 都可以幫助 Amazon Robotics 團隊節省時間和金錢

Omniverse 擁有獨特的數位化技術

Omniverse 是 USD 的首要開發平台,USD 作為一種共通語言

讓團隊協作創建虛擬世界和數位孿生

Omniverse 符合真實物理情況,並反映了物理定律

它可以連接到機器人系統,並使用硬體迴圈進行操作

它具有生成式人工智慧的功能,可加速虛擬世界的建立

Omniverse 可以管理大規模的資料集

在每個領域,我們都為 Omniverse 進行了重大更新

我們來看一下吧

近 30 萬名創作者和設計師都下載了 Omniverse

Omniverse 不是一個工具,而是一個 USD 網路和共享資料庫

是一個將各產業使用的設計工具連結起來的架構

它連結、組合並模擬由領先業界的工具建立的素材

我們很高興看到 Omniverse 的連結日益增長

每個連結都將平台的生態系與其他平台的生態系連結

Omniverse 網路連結正持續大幅增長

Bentley Systems LumenRT 現為已連結狀態

Siemens Teamcenter、NX 和 Process Simulate、Rockwell Automation Emulate 3D、Cesium、Unity 等也是如此

讓我們來看看價值 3 兆汽車產業的數位化

並瞭解汽車公司如何在工作流程中評估 Omniverse

Volvo Cars 和 GM 運用 Omniverse USD Composer來連結並統一素材的管道

GM 運用 Rhino、Alias、Siemens NX、Blender、Unreal、Maya、3ds Max 和 VRED 與設計師、雕塑家和藝術家連結

並將元件以虛擬方式組裝成汽車的數位孿生

在工程和模擬的過程中,他們在 Omniverse 中視覺化 Powerflow 的空氣動力學

對於新一代 Mercedes-Benz 和 Jaguar Land Rover 車款,工程師運用 Omniverse 中的 Drive Sim

生成合成資料來訓練人工智慧模型,根據虛擬 NCAP 駕駛測試來驗證主動安全系統

並模擬真實的駕駛場景

Omniverse 的生成式人工智慧將以前駕駛的路線重建為 3D

因此過去的經驗可以重演或修改

BMW 與 Idealworks 合作在 Omniverse 中使用 Isaac Sim 生成合成資料和場景

來訓練工廠機器人

Lotus 使用 Omniverse 以虛擬方式組裝焊接站

Toyota 使用 Omniverse 建立工廠的數位孿生模型

Mercedes-Benz 使用 Omniverse 來建立、最佳化並規劃新車型的生產線

Rimac 和 Lucid Motors 使用 Omniverse,依據忠實反映車款的實際設計資料來建立數位商店

BMW 使用 Omniverse 來規劃全球近三十六間工廠的營運狀況

他們在 Omniverse 之中建立全新的電動車工廠,開業時間比實體工廠早兩年

讓我們去參觀吧

全球各行各業正在加速數位化,未來三年將投資超過 3.4 兆美元

BMW 努力成為汽車數位化領域的領先者

藉由 NVIDIA Omniverse 和 AI,我們可以比以往更快建立新工廠,並提高生產效率

這可以節省大量資金

這一切都是從規劃開始,這是一個複雜過程我們需要在這個過程中

連接世界各地的許多工具、資料集和專家

傳統上,我們會受到限制,因為資料分散在各種系統和工具中獨立管理

如今,我們正在改變這一切

我們正在開發「自訂 Omniverse 應用程式」,將現有的工具、專業知識和團隊連接起來

一切都在整合式的檢視工具中

Omniverse 是雲端原生且適用於任何雲端,因此團隊能夠從任何地方跨虛擬工廠進行協作

我即將參加匈牙利德布勒森廠的虛擬規劃會議,我們的新電動車工廠將於 2025 年開始營運

現在讓我們開始吧

規劃人員 1:Milan 將加入我們的討論

Milan:大家好!

規劃人員 1:嗨,Milan,很高興見到您,我們現在位於車身修理廠的最佳化循環中

您想看看嗎?

Milan:謝謝您的說明,我非常感興趣並且我想邀請一位朋友

規劃人員 1:當然可以

黃仁勳:嘿,Milan!很高興見到您

Milan:歡迎來到我們的虛擬規劃會議

黃仁勳:很高興來到這裡我們現在看的是什麼?

Milan:這是我們的全球規劃團隊,他們正在德布勒森廠的數位孿生中開發機器人單元 (Robot Cell)

Matthias,請您告訴我們現在的情況……

Matthias:我們剛瞭解到需要改變一些生產理念

因此我們現在正在重新調整佈局,將新機器人新增到單元中

規劃人員 2:那麼我們新增機器人時,則需要在物流方面移動我們的儲存容器

規劃人員 3:好的,讓我們加入新機器人

Matthias:太棒了讓我們再次確認我們可以執行這個單元嗎?

非常好

黃仁勳:Milan,這太不可思議了!

現在對於每個行業而言,虛擬整合可說無比重要

看到我們的團隊共同完成的工作,我感到非常自豪!恭喜!

Milan:我們在全球各地致力於最佳化本地流程

規劃完成後,營運就是最重要的事,我們也已經開始著手了!

為了慶祝我們虛擬工廠的推出,我想邀請您與我一起揭幕第一家數位工廠

黃仁勳:我很榮幸開始吧!

汽車公司雇用了近 1,400 萬人

數位化將提高產業的效率、生產力和速度

Omniverse 是數位轉實體的作業系統可實現產業數位化

今天,我們宣佈推出三個系統專為執行 Omniverse 所設計

首先,我們推出了採用 NVIDIA Ada RTX GPU 和最新 Intel CPU 的新一代工作站

新工作站非常適合執行光線追蹤、物理模擬、神經繪圖技術和生成式人工智慧

Boxx、Dell、HP 和 Lenovo將從 3 月開始提供這些工作站

接下來是針對 Omniverse 最佳化的全新 NVIDIA OVX 伺服器

OVX 由 L40 Ada RTX 伺服器 GPU和我們的全新 BlueField-3 所組成

OVX 伺服器將由 Dell、HPE、Quanta、Gigabyte、Lenovo 和 Supermicro 所提供

從晶片、系統、網路到軟體,Omniverse 堆疊的每一層都是新發明

建立和運作 Omniverse 電腦需要經驗豐富的 IT 團隊

我們會讓 Omniverse 更加快速更易於擴展,也更容易參與其中

我們來看一下吧

世界上最大的行業正在競相將其實體流程數位化

這在目前是一項複雜的任務

NVIDIA Omniverse Cloud 是一種平台即服務,可供您即時安全存取託管於 NVIDIA OVX 的

Omniverse Cloud API、工作流程與可自訂應用程式

企業團隊可以透過網頁瀏覽器 Omniverse Launcher 或自訂內建整合功能

存取一系列託管服務

一旦進入 Omniverse Cloud,企業團隊就可以立即存取、擴充和發佈基礎應用程式

和工作流程,以組成和構成虛擬世界

進而產生資料訓練認知人工智慧

測試和驗證自駕車

或模擬自主機器人

……存取和發佈公用資料至 Omniverse Nucleus

設計師和工程師在 RTX 工作站上使用他們最喜愛的第三方設計工具

並同步將編輯內容發佈至 Nucleus

準備於 Omniverse迭代或檢視整合模型時

只需開啟網頁瀏覽器並登入即可

隨著專案與團隊規模擴大,Omniverse Cloud 也能藉由

視需要佈建運算資源和授權,最佳化成本

而新服務與升級也會跟著即時更新自動提供

有了 Omniverse Cloud,企業可以在所有主要工業工作流程中

加速統一數位化和協作進而提高效率、降低成本和浪費

加快創新之路

我們在 Omniverse 中見!

今天,我們發佈了 NVIDIA Omniverse Cloud這是經過完善管理的雲端服務

我們與 Microsoft 合作將 Omniverse Cloud 引入全球各大產業

我們將它託管於 Azure,藉此能夠享有 Microsoft 豐富的儲存空間、安全保護、應用程式和服務組合

我們連結 Omniverse Cloud 與 Microsoft 365 生產力套件,其中包括 Teams、OneDrive、SharePoint

以及 Azure IoT 數位孿生服務

Microsoft 和 NVIDIA 將 Omniverse 帶給數億 Microsoft 365 和 Azure 的使用者

加速運算和人工智慧的時代來臨了

開發人員使用 NVIDIA 進行加速和擴充,解決以往不可能解決的問題

淨零就是一項艱鉅的挑戰各公司都必須加速每項工作負載以重新掌握能源使用

加速運算是全方位資料中心規模的運算挑戰

Grace、Grace-Hopper 和 BlueField-3 是用於超高效能加速資料中心的新晶片

加速函式庫解決了新挑戰,並打開了新市場

我們更新了 100 個加速函式庫,其中包括用於量子運算的 cuQuantum、用於組合最佳化的 cuOpt

以及用於運算微影製程的 cuLitho

我們很高興能與 TSMC、ASML 和 Synopsys 攜手合作發展 2nm 甚至更精密的技術

NVIDIA DGX 人工智慧超級電腦是生成式大型語言模型突破背後的引擎

DGX H100 人工智慧超級電腦正處於生產階段而全世界不斷擴展的 OEM

和雲端合作夥伴網路很快就可以提供這些超級電腦

DGX 超級電腦超越研究成為現代化的人工智慧工廠

各公司都能製造人工智慧

藉由與 Microsoft Azure、Google GCP 和 Oracle OCI 合作,我們使用 NVIDIA DGX Cloud 擴展經營模式

以透過瀏覽器立即將 NVIDIA 人工智慧帶給每家公司

DGX Cloud 為客戶提供 NVIDIA和全球頂尖 CSP 的最佳服務

我們正處於人工智慧的 iPhone 時代

生成式人工智慧推論工作負載已經超速運轉

我們推出了全新推論平台其中包含四種設定以及一種架構

L4 用於人工智慧影片

L40 用於 Omniverse 與繪圖運算渲染

H100 PCIE 用於擴展大型語言模型推論

Grace-Hopper 用於推薦系統與向量資料庫

NVIDIA 的推論平台可建立最大的資料中心加速和彈性

NVIDIA 和 Google Cloud 攜手合作,以部署各種推論工作負載

透過這次合作,Google GCP 成為首屈一指的 NVIDIA 人工智慧雲端平台

NVIDIA AI Foundations 是雲端服務,也是鑄造廠,能夠建立自訂語言模型和生成式人工智慧

NVIDIA AI Foundations 由語言視覺與生物學模型製作服務所組成

Getty Images 和 Shutterstock正在建立自訂視覺語言模型

我們與 Adobe 攜手合作,為未來的創造力建立一套新一代人工智慧的功能

Omniverse 是數位轉實體的作業系統可實現產業數位化

Omniverse 可以統一端對端工作流程,並將價值 3 兆、擁有 1,400 萬員工的汽車產業數位化

Omniverse 即將躍入雲端

我們將它託管於 Azure,並與 Microsoft 攜手合作,以便將 Omniverse Cloud 引入全球各大產業

我要感謝系統、雲端和軟體的合作夥伴研究人員、科學家

特別是出色的員工

他們建立了 NVIDIA 加速運算生態系統

我們攜手合作,幫助世界完成不可能的任務

願各位在 GTC 大會獲益良多!