約 40 年間
ムーアの法則はコンピューター産業を動かし
あらゆる産業に影響を与えてきました
一定のコストと電力での性能向上はスローダウンしていますが
コンピューティングの進歩は光速になりました
ワープ ドライブのエンジンはアクセラレーテッド コンピューティングであり エネルギー源は AI です
アクセラレーテッド コンピューティングと AI がタイミングよく現れました
各種産業が強力なダイナミクスに取り組んでいました
持続可能性
ジェネレーティブ AI
デジタル化などです
ムーアの法則がなくなり コンピューティングが急増する中 データ センターの電力が急上昇し
企業はネット ゼロの達成に苦労しています
ジェネレーティブ AI の優れた機能は
製品やビジネス モデルを再創造しなければならないという切迫感を企業に与えました
企業は 競ってデジタル化を進め ソフトウェア主導のテクノロジ企業へと生まれ変わろうとしています
破壊される側ではなく
破壊する側になることを目指して
本日は アクセラレーテッド コンピューティングと AI が こうした課題に取り組み
今後の大きなチャンスにつなげるための強力なツールであることをご説明します
NVIDIA のデータセンター規模のフルスタック アクセラレーテッド コンピューティング プラットフォームの新しい進化を紹介します
新しいチップとシステム、高速化ライブラリ、クラウドと AI サービス
新しい市場を開拓するパートナーシップを発表します
GTC へようこそ
GTC は開発者のためのカンファレンスです
NVIDIA のグローバル エコシステムには 400 万人の開発者、4 万社の企業
1.4 万社のスタートアップが参加しています
NVIDIA をサポートし GTC 2023 を大成功に導くダイヤモンド スポンサーの皆様に感謝いたします
25 万名を超える皆様を NVIDIA カンファレンスにお迎えできて とても嬉しく思います
GTC は驚くほど成長しました
4 年前の対面での NVIDIA GTC カンファレンスの参加者は 8 千人ほどでした
GTC 2023 では、DeepMind の Demis Hassabis 氏
Argonne Labs の Valeri Taylor 氏
Adobe の Scott Belsky 氏
Netflix の Paul Debevec 氏
チューリッヒ工科大学の Thomas Schulthess 氏といったリーダーたちが講演します
また OpenAI の共同創業者であり ChatGPT の開発者である
Ilya Sutskever 氏との特別対談があります
アカデミアや世界最大の産業界で活躍する優秀な方々が参加する 650 ものすばらしい講演を用意しています
ジェネレーティブ AI に関するものだけで 70 以上の講演があります
ロボティクス向けの学習済みマルチタスク モデルに関する講演なども見逃せません
AI を進化させる重要な手法である合成データ生成や
Isaac Sim を利用して物理に基づいたライダー点群を生成する方法などをご紹介するセッション
デジタル ツインに関する講演では AI を利用して未来の仮想工場や
過去に失われたローマのモザイクを復元など
巨大な光学望遠鏡や光子計数 CT など 計算機器に関する講演もすばらしいです
カーボン キャプチャや太陽電池のための材料科学に気候科学 NVIDIA の Earth-2 研究
NVIDIA Research は信頼できる AI と AV の安全性に関する重要な講演を用意しています
超小型の機械を作るマイクロチップの計算リソグラフィから
宇宙を説明する大型ハドロン衝突型加速器の AI まで
自動車と輸送から
ヘルスケア、製造、金融サービス
小売、アパレル、メディア&エンターテイメント、通信に加え
世界を代表する AI 企業まで 世界の重要企業がここに集まります
GTC の目的は アクセラレーテッド コンピューティングの可能性を世界に示し
それを利用する科学者や研究者の功績を称えることです
私は変換する者
テキストを創造的な発見へと変え
動きをアニメーションにし
指示を行動に変えます
私は癒やす者
私たちに個性を与える構成要素を探り
新しい脅威が発生する前にそれをモデル化し
それらを抑えるための治療法を探しています
私は未来を見る者
新たな医療の奇跡を生み出し
太陽を新しい切り口で解明して
この地球を守ります
私は導く者
溢れるコンテンツの中から特別な瞬間を発見し
次の世代の到来を告げ
あらゆる物語にぴったりな設定を与えます
私は作る者
スナップショットから 3D 体験を作り
バーチャルな私たちに新たなリアリティを与えます
私は助ける者
ひらめきを現実にし
無数のプログラマーの知恵を共有し
アイデアを仮想世界へと変えます
北の森を作ります
この台本の執筆を手伝い
言葉に命を吹き込み
メロディーを作曲したのも私です
私は AI
NVIDIA、ディープラーニング、そして世界中の優れた才能によって生み出されました
NVIDIA は通常のコンピューターでは解決できない問題を解決するためにアクセラレーテッド コンピューティングを発明しました
アクセラレーテッド コンピューティングは簡単ではありません
チップ、システム、ネットワーキング
アクセラレーション ライブラリからアプリケーションのリファクタリングまでフルスタックの発明が必要です
各スタックが最適化されることで
グラフィックス、画像処理、粒子、流体力学、
量子物理学、データ処理、機械学習などのアプリケーション ドメインが加速されます
一度高速化されたアプリケーションは 驚異的なスピードアップを実現し多くのコンピューターでスケールアップできます
スピードアップとスケールアップが組み合わされたことで
過去 10 年間 さまざまなアプリケーションが大幅に進化し
これまで不可能であった問題解決が可能になりました
多くの例がありますが 最も有名なものはディープラーニングです
2012 年 Alex Kerchevsky 氏、Ilya Suskever 氏、Geoff Hinton 氏は 非常に高速なコンピューターを必要としていました
AlexNet コンピューター ビジョン モデルをトレーニングするためです
研究者たちは GeForce GTX 580 で 1,400 万枚の画像を使って AlexNet をトレーニングし
262,000 兆の浮動小数点演算を処理しました
トレーニングされたモデルは ImageNet コンテストで大差をつけて勝利し AI ビッグバンに火をつけました
10 年後 Transformer モデルが発明されました
そして現在 OpenAI で働いている Ilya 氏は GPT-3 大規模言語モデルをトレーニングし 次に出てくる単語を予測させました
GPT-3 のトレーニングには 323 セクスティリオン (10 の 21 乗) の浮動小数点演算が必要でした
AlexNet のトレーニングに比べて浮動小数点演算が 100 万倍になりました
その結果として生まれた AI である ChatGPT は世界中で話題になっています
新しいコンピューティング プラットフォームが発明されました
iPhone が登場したときのような革命が AI で始まったのです
アクセラレーテッド コンピューティングと AI の到来です
アクセラレーテッド コンピューティングの中核となるのがアクセラレーション ライブラリです
これらのライブラリがアプリケーションにつながり 世界の産業につながり 各種ネットワークからなるネットワークが形成されます
30 年を経て 数千ものアプリケーションが現在 NVIDIA テクノロジによって高速化されており
科学や産業のほぼすべての領域でライブラリが利用されています
すべての NVIDIA GPU は CUDA に対応しており 大規模なインストール ベースと開発者への大きなリーチを提供します
豊富なアクセラレーテッド アプリケーションがエンドユーザーを引き付け クラウド サービス プロバイダーや
コンピューター メーカーにとって大きな市場を作り出しています
市場が大きければ 研究開発に多額の投資をし 成長を促すことができます
NVIDIA はアクセラレーテッド コンピューティングの好循環を確立しました
レイ トレーシングとニューラル レンダリング、物理、地球、生命科学、量子物理学と化学、コンピューター ビジョン、データ処理、機械学習、AI にまたがる
300 のアクセラレーション ライブラリと 400 の AI モデルのうち
NVIDIA は今年 100 を更新し
インストールベース全体の性能と機能を向上しました
それでは 新しい課題を解決し 新しい市場を切り開くアクセラレーション ライブラリをいくつか紹介します
自動車産業や航空宇宙産業では 乱流や空気力学のシミュレーションに CFD を使用しています
エレクトロニクス業界では 熱管理設計に CFD を使用しています
これは Cadence のスライドですが 新しい CFD ソルバーを CUDA で高速化しています
同等のシステム コストで NVIDIA A100 のスループットは CPU サーバーの 9 倍です
言い換えると 同等のシミュレーション スループットで NVIDIA のコストは 9 分の 1 であり エネルギー消費は 17 分の 1 です
Ansys、Siemens、Cadence、などの主要な CFD ソルバーが現在 CUDA で高速化されています
世界中で産業用 CAE の CPU コアが年間で約 1,000 億時間使用されています
高速化は電力を節約し 持続可能性とネット ゼロを達成するための最良の方法です
NVIDIA は世界中の量子コンピューティング研究コミュニティと提携しています
NVIDIA Quantum プラットフォームは 研究者が量子プログラミング モデル、システム アーキテクチャ、アルゴリズムを進化させるために必要な
ライブラリとシステムから構成されています
cuQuantum は量子回路シミュレーターのための高速化ライブラリです
IBM Qiskit、Google Cirq、Baidu Quantum Leaf、QMWare、QuEra、 Xanadu Pennylane、Agnostiq、AWS Bracket は
cuQuantum をシミュレーション フレームワークに統合しています
Open Quantum CUDA は NVIDIA のハイブリッド GPU-Quantum プログラミング モデルです
IonQ、ORCA Computing、Atom、QuEra、Oxford Quantum Circuits、IQM、Pasqal、Quantum Brilliance、Quantinuum、Rigetti、
Xanadu、Anyon が Open Quantum CUDA を統合しています
量子ノイズとデコヒーレンスからデータを復元するには 大量の量子ビットでエラー訂正する必要があります
本日 NVIDIA は Quantum Machines と提携して開発した量子制御リンクを発表します
NVIDIA GPU を量子コンピューターに接続し 超高速でエラー訂正を行います
商用量子コンピューターはまだ 10 年から 20 年先ですが この大規模で活気に満ちた研究コミュニティを
NVIDIA Quantum でサポートできることを嬉しく思います
世界中の企業が Apache Spark を使用してデータ レイクとデータ ウェアハウス、
SQL クエリ、グラフ分析、レコメンダー システムを処理しています
Spark-RAPIDS は NVIDIA の高速 Apache Spark データ処理エンジンです
データ処理は 世界の 5,000 億ドルのクラウド コンピューティング支出の主要なワークロードです
Spark-RAPIDS は現在 GCP Dataproc、Amazon EMR、Databricks、Cloudera など
主要なクラウド データ処理プラットフォームを高速化しています
レコメンダー システムはベクトル データベースを使用して非構造化データの大量のデータセットを格納、インデックス作成、検索、取得します
ベクトル データベースの新しい重要なユース ケースが大規模言語モデルです
テキスト生成中に 照会可能なドメイン固有または独自のファクトを取得します
NVIDIA は新しいライブラリ RAFT を導入し インデックス作成、データ読み込み、
1 つのクエリの隣接するバッチの取得を高速化します
RAFT の高速化を Meta のオープンソース FAISS AI Similarity Search、1,000 を超える組織に利用されている Milvus オープンソース ベクトル DB、
40 億以上の doker pull を持つ Redis に導入しています
独自の大規模言語モデルを構築する組織にとってベクトル データベースは不可欠です
22 年前 オペレーションズ リサーチを研究する Li 氏と Lim 氏が集配と配送に関する一連の課題 (PDP) を発表しました
PDP は製造、輸送、小売と物流、さらには災害救助に登場しています
PDP は巡回セールスマン問題を一般化したものであり NP 困難です
つまり 正確な解決策を見つける効率的なアルゴリズムはありません
問題の規模が大きくなると 解決時間が要因的に増加します
NVIDIA cuOpt は進化アルゴリズムとアクセラレーテッド コンピューティングを利用して
毎秒 300 億回の移動を分析しました 世界記録を破り Li 氏と Lim 氏の課題に最良の解決策を発見しました
AT&T は日常業務として 3 万人の技術者を派遣し 700 の地域にまたがる 1,300 万人の顧客にサービスを提供しています
現在 CPU で実行されているため AT&T の派遣最適化には一晩かかります
AT&T はリアルタイムの派遣ソリューションの導入を検討しています
継続的に最適化することで顧客の急な要望、遅延、事故に対処しながら全体的な顧客満足度を向上するのが目的です
cuOpt を使用することで AT&T はソリューションを 100 倍速く見つけ その派遣をリアルタイムで更新することができます
AT&T は NVIDIA AI ライブラリを一通り採用しました
Spark-RAPIDS と cuOPT に加え 対話型 AI に Riva を デジタル アバターに Omniverse を使用しています
AT&T は NVIDIA のアクセラレーテッド コンピューティングと AI を活用し 持続可能性、コスト削減、新しいサービスを実現します
cuOpt は物流サービスも最適化できます 毎年 4,000 億個の小包を 3,770 億箇所に届けています
Deloitte、Capgemini、Softserve、Accenture、Quantiphi は NVIDIA cuOpt を利用し 顧客の業務最適化を支援しています
NVIDIA の推論プラットフォームは 3 つのソフトウェア SDK で構成されています
NVIDIA TensorRT はターゲット GPU に合わせて最適化する NVIDIA の推論ランタイムです
NVIDIA Triton は GPU と CPU をサポートするマルチフレームワークのデータ センター推論サービス ソフトウェアです
Microsoft Office、Microsoft Teams、Amazon、American Express、米国郵便サービスなど
4万人のお客様が TensorRT と Triton を利用しています
Uber は Triton を利用して毎秒数十万単位の 到着予測を行っています
1 日あたりの利用者が 6,000 万人を超える Roblox は Triton を利用することでゲーム推奨モデルを提供し
アバターを構築し コンテンツやマーケットプレイス広告をモデレートしています
NVIDIA は優れた新機能をいくつかリリースしています モデル アンサンブルのためのモデル アナライザー、複数同時実行モデルのサービス提供、
GPT-3 大規模言語モデルのためのマルチ GPU マルチノード推論などです
NVIDIA Triton Management Service はデータ センター全体で Triton 推論インスタンスのスケーリングとオーケストレーションを
自動化する新しいソフトウェアです
Triton Management Service はモデル導入のスループットとコスト効率の向上を支援します
クラウド ビデオ パイプラインの 50-80% は CPU で処理され
電力とコストを費やし 遅延を増やしています
コンピューター ビジョンのための CV-CUDA とビデオ処理のための VPF はクラウド規模の新しい高速化ライブラリです
CV-CUDA には検出、セグメンテーション、分類のために 30 のコンピューター ビジョン オペレーターが含まれています
VPF は Python ビデオ エンコード/デコード高速化ライブラリです
Tencent は CV-CUDA と VPF を利用し 1 日あたり 30 万本のビデオを処理しています
Microsoft は CV-CUDA と VPF を利用し ビジュアル検索を処理しています
Runway は CV-CUDA と VPF を利用し クラウドのジェネレーティブ AI 動画編集サービスにおける
動画を処理しているとても優れた企業です
動画はすでにインターネット トラフィックの 80% を占めています
ユーザーはものすごい勢いで動画を作成し 大量の電力を消費しています
私たちはあらゆる動画処理を高速化し 電力を節約すべきです
CV-CUDA と VPF は早期アクセスの段階にあります
NVIDIA アクセラレーテッド コンピューティングはゲノム解析で偉業を達成しました
医師は患者が来院したその日のうちに採血し DNA の配列を決定できるようになりました
もう 1 つの偉業は NVIDIA 搭載の機器がゲノムシーケンシング全体のコストをわずか 100 ドルまで削減したことです
ゲノム解析は合成生物学にとって重要なツールであり 創薬に
農業からエネルギー生産まで幅広い応用が可能です
NVIDIA Parabricks はクラウド内または機器内でエンドツーエンドのゲノム解析を行う AI アクセラレーテッド ライブラリの一式です
NVIDIA Parabricks は Terra、DNAnexus、FormBio など あらゆるパブリック クラウドとゲノム解析プラットフォームで利用できます
本日 NVIDIA は Parabricks 4.1 を発表します PacBio、Oxford Nanopore、Ultima、Singular、BioNano、Nanostring の
NVIDIA アクセラレーテッド ゲノム解析機器で実行されます
世界の 2,500 億ドル規模の医療機器市場が変わろうとしています
医療機器はソフトウェアデファインドになり AI 対応になります
NVIDIA Holoscan はリアルタイム センサー処理システムのためのソフトウェア ライブラリです
75 社以上の企業が Holoscan で医療機器を開発しています
本日 医療機器の世界をリードする Medtronic と NVIDIA がソフトウェアデファインドの医療機器向けの
AI プラットフォームを開発することをお知らせします
この業務提携からは 手術ナビゲーションからロボット支援手術まで Medtronic の各種システムのための
共通プラットフォームが作られます
Medtronic は本日 結腸癌の早期発見のための AI を搭載した次世代 GI Genius システムが
NVIDIA Holoscan ベースで開発され 今年の終わり頃に出荷されることを発表しました
チップ産業はほぼすべての産業の基礎となっています
チップ製造には極めて高い精度が求められ それはバクテリアの1,000分の1
金原子またはヒト DNA と同じようなサイズの精度が求められます
ウェーハー上でパターンを作るプロセスであるリソグラフィがチップ製造の最初のプロセスであり
フォトマスク作りとパターン転写という 2 つの段階から構成されています
基本的に 物理学の限界ぎりぎりのところで画像を処理する作業です
フォトマスクは、チップのステンシルのようなものです光はマスクを通して通過したり遮られたりしてウェーハーに渡され
パターンが作られます
この光は ASML EUV 極紫外線リソグラフィ システムによって作られます
各システムは 2.5 億ドル以上です
ASML EUV は画期的な方法で光を作ります
一滴のスズにレーザーを毎秒 5 万回あてて気化させ ほぼ X 線とも言える 13.5nm の EUV 光を放射するプラズマを
作り出します
多層鏡が光をマスクに誘導します
マスク レチクルの多層反射体が 13.5nm 光の干渉パターンを活用し
各種機能を 3nm まで小さくします
魔法です
ウェーハーは 4 分の 1 ナノメーター以内に配置され あらゆる振動に合わせて毎秒 2 万回調整されます
リソグラフィ前の手順も同様に奇跡的です
計算リソグラフィでは 逆の物理アルゴリズムを適用し マスク レチクル上のパターンを予測し
ウェーハー上の最終パターンを生成します
実際 マスクのパターンは各種機能の最終形態にまったく似ていません
計算リソグラフィは 光学系を通過した光がフォトレジストと相互作用する際の挙動を
マクスウェルの方程式でシミュレーションします
計算リソグラフィはチップ設計と製造において最大の計算ワークロードであり
年間数十億単位の CPU 時間を消費します
大規模なデータ センターは年中無休稼働し リソグラフィ システムで使用されるレチクルを作ります
そうしたデータ センターは チップ メーカーにおける年間 2,000 億ドル近くの設備投資の一部です
計算リソグラフィはアルゴリズムの複雑化に伴い急成長しており
2nm 以下に向かって業界は進んでいます
NVIDIA は本日 cuLitho を発表します これは計算リソグラフィのためのライブラリです
4 年近くかかった膨大な作業と TSMC、ASML、Synopsys との緊密な連携の末に生まれた cuLitho は
計算リソグラフィを 40 倍以上高速化します
NVIDIA H100 には 89 個のレチクルがあります
CPU で実行する場合 現行では 1 つのレチクルの処理に 2 週間かかります
cuLitho は GPU で実行され 1 回 8 時間のシフトでレチクルを処理できます
TSMC はわずか 500 台の DGX H100 システムで cuLitho を利用して高速化することで計算リソグラフィに使用される 40,000 台の CPU サーバーを削減できます
35MW の電力がわずか 5MW まで削減されます
TSMC は cuLitho を使用することで試作にかかる時間を短縮し スループットを向上させ
製造から発生する二酸化炭素排出量を削減し 2nm 以下の時代に対処できます
TSMC は 6 月から cuLitho で生産を開始する予定です
電力を節約してももっとたくさんのことができるよう あらゆる産業があらゆるワークロードを加速する必要があります
過去 10 年間で クラウド コンピューティングは年間 20% 成長し 1 兆ドルの大規模産業になりました
約 3,000 万台の CPU サーバーが処理の大半を実行します
近々 課題に直面することになりそうです
ムーアの法則が終わることで CPU のパフォーマンスが上がれば 電力が増えます
二酸化炭素排出量を減らすという義務はデータ センターを増やす必要性と根本的に対立しています
クラウド コンピューティングは電力を無制限に使えて成長するものではありません
まず第一に データ センターはあらゆるワークロードを高速化する必要があります
高速化は電力を節約します
節約されたエネルギーは新たな成長の原動力となります
高速化されないものは CPU で処理されます
アクセラレーテッド クラウド データセンターの CPU 設計のポイントは従来とは根本的に異なります
AI とクラウド サービスでは アクセラレーテッド コンピューティングが並列化可能なワークロードをオフロードし CPU が他のワークロード
例えば Web RPC やデータベース クエリなどを処理します
NVIDIA は AI と クラウドファーストの世界のために Grace CPU を設計しました AI ワークロードは GPU で高速化され
Grace はシングルスレッドの実行とメモリ処理に優れています
CPU チップだけが問題ではありませんデータセンター事業者はデータセンター全体のスループットと総所有コストを最適化します
NVIDIA はクラウド データセンター規模での高いエネルギー効率を実現するために Grace を設計しました
Grace は 72 個の Arm コアで構成されており そのコアが超高速オンチップのスケーラブルなコヒーレント ファブリックで接続され
毎秒 3.2 TB の帯域幅を提供します
Grace Superchip は毎秒 900 GB と低電力なチップ間コヒーレント インターフェイスを利用し 2 つの CPU ダイ間で 144 個のコアを接続します
メモリ システムは 携帯電話で使用されている LPDDR 低電力メモリであり データセンターで使用するために特別に強化されています
現在のシステムの 2.5 倍の帯域幅である毎秒 1TB を、8 分の 1 の電力で提供します
1TB のメモリを搭載した 144 コア Grace Superchip モジュール全体でわずか 5x8 インチです
非常に低電力であり空冷できます
これはパッシブ冷却を備えたコンピューティング モジュールです
2 台の Grace Superchip コンピューターが 1 台の 1U 空冷サーバーに収まります
Grace のパフォーマンスと電力効率はクラウドや科学計算処理アプリケーションに最適です
NVIDIA は クラウド マイクロサービスの通信速度をテストする人気の Google ベンチマークと
Apache Spark のメモリ負荷の高いデータ処理をテストする Hi-Bench スイートで Grace をテストしました
このようなワークロードはクラウド データセンターの基礎となります
マイクロサービスでは Grace は最新世代の x86 CPU の平均より 1.3 倍の速さであり
データ処理では 1.2 倍の速さになります
さらに高いパフォーマンスも サーバー ノード全体で測定された電力のわずか 60% を使用して達成されます
CSP は電力制限のあるデータ センターで 1.7 倍の Grace サーバーを設置し それぞれスループットを 25% 向上させることができます
iso パワーでは Grace は CSP の成長機会を 2 倍にします
Grace はサンプリング中です
Asus、Atos、Gigabyte、HPE、QCT、Supermicro、Wistron、ZT が現在 システムを構築しています
ソフトウェア デファインドの最新型データ センターでは 仮想化、ネットワーク、ストレージ、セキュリティを実行するオペレーティング システムで
データセンターの CPU コアと付随する電力のほぼ半分を消費することがあります
データセンターはあらゆるワークロードを高速化して電力を節約し 収益を生むワークロードのために CPU を解放する必要があります
NVIDIA BlueField は データセンターのオペレーティング システムとインフラストラクチャ ソフトウェアの負荷を減らし 高速化します
Check Point、Cisco、DDN、Dell EMC、Juniper、Palo Alto Networks、Red Hat、VMWare など 20 社を超えるエコシステム パートナーが
BlueField のデータセンター高速化技術を利用し
ソフトウェア プラットフォームより効率的に稼動しています
BlueField-3 は生産中であり 業界をリードするクラウド サービス プロバイダーである Baidu、CoreWeave、JD.com、Microsoft Azure、
Oracle OCI、Tencent Games によって採用されており クラウドを高速化しています
NVIDIA アクセラレーテッド コンピューティングは世界の AI スーパーコンピューターである DGX から始まり
大規模言語モデルの飛躍的な発展を支えるエンジンとなっています
世界初の DGX は私が OpenAI に手渡しました
それ以降 Fortune 100 社の半数が DGX AI スーパーコンピューターを設置しました
DGX は AI に不可欠な道具となったのです
DGX は 8 基の H100 モジュール の GPUを搭載しています
H100 は驚異的な ChatGPT のようなモデルを処理するように設計されたTransformer エンジンを備えています
GPT は Generative Pre-trained Transformer の略です
8 基の H100 モジュールが NVLINK スイッチを介して相互に接続され遮断のまったくないトランザクションを可能にします
8 基の H100 が 1 つの巨大な GPU として機能します
コンピューティング ファブリックは AI スーパーコンピューターの最も重要なシステムの 1 つです
400 Gbps の超低遅延 NVIDIA Quantum InfiniBand は
ネットワーク内処理を備え
無数の DGX ノードを
AI スーパーコンピューターに接続します
NVIDIA DGX H100 は AI インフラストラクチャを構築する世界中の顧客の設計図となります
H100 は量産を開始しています
Microsoft が Azure で H100 AI スーパーコンピューターのプライベート プレビューを公開することを 発表し 嬉しく思います
その他のシステムとクラウド サービスはまもなくAtos、AWS、Cirrascale、CoreWeave、Dell、Gigabyte、Google、HPE、
Lambda Labs、Lenovo、Oracle、Quanta、SuperMicro から提供されます
DGX AI スーパーコンピューターの市場は大きく成長しています
もともと AI 研究用として使用されていたDGX AI スーパーコンピューターの運用は拡大しており
24時間365日稼働し データの精製や AI の処理に取り組んでいます
DGX スーパーコンピューターは最新式の AI 工場です
iPhone が登場したときのような革命的瞬間が AI に訪れています
スタートアップ企業は競うように斬新な製品とビジネス モデルを開発し既存企業もそれに凌ぎを削っています
ジェネレーティブ AI をきっかけに世界中の企業がAI 戦略の策定に危機感を持つようになりました
NVIDIA AI を簡単に利用する方法を顧客は求めています
NVIDIA は Microsoft Azure、Google GCP、Oracle OCI との業務提携によりNVIDIA DGX Cloud を発表します
これにより あらゆる企業がブラウザーから NVIDIA DGX AI スーパーコンピューターに瞬時にアクセスできるようになります
DGX Cloud は AI のエンドツーエンドの開発と展開で世界をリードするアクセラレーション ライブラリ スイートである
NVIDIA AI Enterprise 向けに最適化されています
DGX Cloud は NVIDIA AI と世界をリードするクラウド サービス プロバイダーの最高峰をお客様に提供します
この業務提携により NVIDIA のエコシステムが CSP に広がりNVIDIA の規模と範囲を拡大します
このウィン/ウィンの業務提携により ジェネレーティブ AI の開発に取り組む企業は 世界規模のクラウドで NVIDIA テクノロジをすぐに活用できるようになります
我々は このクラウドによるビジネス モデルの拡張がもたらすスピード、規模、展開の広がりに胸が躍ります
Oracle Cloud Infrastructure (OCI) がまず最初の NVIDIA DGX Cloud となります
OCI はパフォーマンスに優れています2 層のコンピューティング ファブリックと管理ネットワークがあります
NVIDIA の CX-7 は業界最高水準の RDMA を搭載したコンピューティング ファブリックです
BlueField-3 は管理ネットワークのインフラストラクチャ プロセッサとなります
この組み合わせは マルチテナント クラウド サービスとして提供できる最先端の DGX AI スーパーコンピューターです
NVIDIA には 個人向けインターネットとソフトウェア、ヘルスケア、
メディア & エンターテイメント、金融サービスなど 50 社の早期アクセス対象の法人顧客がいます
ChatGPT、Stable Diffusion、DALL-E、Midjourney がきっかけとなり世界はジェネレーティブ AI の力に気付きました
こうしたアプリケーションは使い勝手が良く 優れた機能を備えわずか数か月で 1 億人を超える利用者を集めました
ChatGPT は史上最も急成長したアプリケーションです
トレーニングは必要ありません何かしてとモデルに頼むだけです
プロンプトは正確なものでも曖昧なもので良いです明確でない場合
ChatGPT は会話を通してあなたの意図を学習します
生成されたテキストは感動を通り越したものです
ChatGPT はメモや詩を作り 論文をわかりやすく言い換え数学の問題を解き
契約書の重要な部分を強調表示し さらにはソフトウェア プログラムのコードを書きます
ChatGPT はソフトウェアを実行するだけでなく ソフトウェアを記述するコンピューターです
さまざまな飛躍的進化がジェネレーティブ AI に繋がっています
Transformer は大量のデータを並列処理しその関係性と依存関係から文脈と意味を学習します
その結果 明示的なトレーニングなしで大量のデータから学習し
下流のタスクを実行できる大規模言語モデルが作られました
物理学からヒントを得た拡散モデルは 監督なしで学習し画像を生成します
猫の認識に四苦八苦していたものが わずか 10 年で
宇宙服を着た猫が月を歩いているリアルな絵を
描けるようになりました
ジェネレーティブ AI は人間の言語でプログラミングする新しい種類のコンピューターです
この能力は大きな意味を持っています誰もがコンピューターに指示して問題を解決することができます
これはコンピューター プログラマーだけの領域でした
今では誰もがプログラマーです
ジェネレーティブ AI は PC、インターネット、モバイル、クラウドなど同様の新しいコンピューティング プラットフォームです
かつてのコンピューティング時代と同様に先発企業が新しいアプリケーションを開発して新しい会社を興し
ジェネレーティブ AI の自動化機能と共同作成機能に投資しています
Debuild では ユーザーが望むものを説明するだけでWeb アプリケーションを設計し 展開できます
Grammarly は文脈を考慮する作文アシスタントです
Tabnine は開発者のコード記述を支援します
Omnekey はカスタマイズされた広告とコピーを生成します
Kore.ai は仮想のカスタマー サービス エージェントです
Jasper はマーケティング資料を生成しますJasper は約 50 億語を書き
初稿の生成にかかる時間を 80% 短縮しました
Insilico は AI を利用して医薬品設計を加速します
Absci は AI を利用して治療用抗体を予測します
ジェネレーティブ AI はほぼすべての産業を変革するでしょう
市場に入ってくる優れたジェネレーティブ AI API を多くの企業が利用しています
企業によっては独自のデータで その領域に特化したカスタム モデルを構築する必要があります
利用上のルールを設定し 自社の安全性、プライバシー、セキュリティに
沿ったモデルに改良する必要があります
この業界では カスタムの大規模言語モデルの半導体製造工場 TSMC を必要としています
NVIDIA は本日 NVIDIA AI Foundations を発表します
独自のデータでその分野固有のタスクに合わせて
トレーニングされたカスタム LLM と
ジェネレーティブ AI を構築、改良、運用する
顧客のためのクラウド サービスです
NVIDIA AI Foundations は言語、
ビジュアル、生物学のモデル作成サービスから構成されています
NVIDIA NeMo は テキストからテキストを生成する
カスタム言語モデルを構築します
顧客は独自のモデルを持ち込むか トレーニング済みのNeMo 言語モデルから始めることができます
GPT パラメーター数には 80 億個、430 億個、5300 億個があります
独自モデルの作成から運用まで プロセス全体でNVIDIA AI エキスパートがお手伝いします
それでは 見てみましょう
NVIDIA の 430 億基盤モデルのような生成モデルは数十億単位の文章と
数兆単位の単語でトレーニングして学習します
収束したモデルは その埋め込み空間で重み付けされて捉えられた
単語とその基礎概念を理解し始めます
Transformer モデルでは 自己注意と呼ばれる手法を使用しますこれは連続する単語内の依存性と関係を
学習するように設計されたメカニズムです
その結果 ChatGPT のような体験ができる基盤となるモデルができあがります
これらの生成モデルは膨大な量のデータ、
データ処理と分散トレーニングのための AI の深い専門知識、
イノベーション ペースでトレーニング、展開、保守管理するための大規模コンピューティングを必要とします
企業は NVIDIA NeMo サービスを NVIDIA DGX Cloud で実行することで
ジェネレーティブ AI を短期間で導入できます
1 番手っ取り早いのは NVIDIA の最先端の
学習済み基盤モデルから始めることです
NeMo サービスを利用することで 組織は簡単にモデルをカスタマイズできます
p チューニングを利用して特別なスキルを習得できます
たとえば 財務文書を要約します
ブランド固有のコンテンツを作成します
パーソナライズされた内容でメールを作成します
独自のナレッジ ベースにモデルを接続することで
ビジネスに沿った応答が
常に正確かつ最新の状態で返されます
次に 脱線防止策としてロジックを追加し
入力、出力、毒性、偏りのしきい値を監視します
それにより 指定されたドメイン内で動作し
望まれない応答を防ぎます
動き出したモデルはユーザーとのやりとりを基盤とする強化学習によって
継続的に改善されます
大規模な評価やアプリケーション統合に向けて クラウド API に移行する前に
NeMo のプレイグラウンドを利用して短期間で試作できます
今すぐ NVIDIA NeMo サービスに登録し
企業の知識を体系化し
AI モデルをパーソナライズして自社で制御してください
Picasso は ライセンスを供与されたコンテンツか独自のコンテンツでトレーニングされたカスタム モデルの構築を望む
顧客向けビジュアル言語モデル作成サービスです
それでは見てみましょう
ジェネレーティブ AI はビジュアル コンテンツの制作方法を変えています
しかし その可能性を最大限に引き出すためには 著作権問題をクリアした大量のデータ、AI の専門家、AI スーパーコンピューターが必要です
NVIDIA Picasso は ジェネレーティブ AI で作られる画像、
動画、3D アプリケーションを構築し 展開するためのクラウド サービスです
これを利用することで 企業、ISV、サービス プロバイダーは
独自のモデルを展開できます
NVIDIA はプレミア パートナーと協力し
ジェネレーティブ AI 機能をあらゆる産業に届けます
組織は NVIDIA Edify モデルから始めることもできます
モデルを独自のデータでトレーニングし 製品やサービスを作ります
そうしたモデルから画像、動画、3D アセットが作られます
ジェネレーティブ AI モデルにアクセスするために
アプリケーションは API を呼び出し、テキスト プロンプト、
メタデータを Picasso に送信します
Picasso では適切なモデルを NVIDIA DGX Cloud で実行し
生成されたアセットをアプリケーションに返します
写真のようにリアルな画像、高解像度の動画、詳細な 3D ジオメトリなどです
生成されたアセットは編集ツールや NVIDIA Omniverse にインポートし写真のようにリアルな仮想世界、
メタバース アプリケーション、デジタル ツイン シミュレーションを構築できます
NVIDIA Picasso サービスを NVIDIA DGX Cloud で実行することで
カスタム ジェネレーティブ AI アプリケーションを構築するために必要な
トレーニング、最適化、推論を合理化できます
世界を変えるジェネレーティブ AI 機能を NVIDIA Picasso がアプリケーションにもたらします その仕組みをご覧ください
確実にライセンスを供与されたプロフェッショナルな画像や動画アセットの豊富なライブラリでトレーニングされた Edify 画像/Edify 動画生成モデルを構築するために
Getty Images が Picasso サービスを利用することを嬉しく思います
企業は簡単なテキストや画像プロンプトでカスタムの画像や動画を作成できるようになります
Shutterstock はプロフェッショナルな画像、3D、動画アセット ライブラリで
トレーニングされた Edify-3D 生成モデルを開発しています
Shutterstock はクリエイティブな制作、デジタル ツイン、仮想コラボレーションのための 3D アセットの作成を簡素化し
これらのワークフローを企業がより迅速かつ容易に導入できるよう支援します
Adobe と長年のパートナーシップを大幅に拡大し クリエイティブの未来のための次世代 AI 機能構築について発表できて嬉しく思います
ジェネレーティブ AI をマーケティング担当者や
クリエイティブ プロフェッショナルの日常的な業務フローに統合します
新しいジェネレーティブ AI モデルは画像作成、動画、3D、
アニメーション向けに最適化される予定です
アーティストの権利を守るため Adobe は Adobe の Content Authenticity Initiative を活用し
商業的な可能性と適切なコンテンツ帰属を重視して開発を進めています
第 3 の言語領域が生物学です
創薬は約 2 兆ドルの産業であり
2,500 億ドルが研究開発に費やされています
NVIDIA Clara は画像処理、機器、ゲノム解析、創薬のための
医療アプリケーション フレームワークです
業界は現在 ジェネレーティブ AI を活用する方向で進んでいます
病気の標的を発見し、新しい分子やタンパク質ベースの医薬品を設計し体内における医薬品の挙動を予測するためです
無数に存在する新興の AI 創薬スタートアップ企業にはInsilico Medicine、Exscientia、Absci、Evozyme などがあります
新しい標的や薬の候補を発見し 人体による臨床試験を始めている企業もあります
BioNemo は 研究者が 独自のデータでカスタム モデルを
作成、微調整、提供することを支援します
それでは 見てみましょう
創薬には 3 つの重要な段階があります
病気を引き起こす体の仕組みを発見する
新しい分子として小分子、タンパク質、抗体を設計する
最後に分子の相互作用を選別する
現在 この創薬プロセスのあらゆる段階をジェネレーティブ AI が変えています
NVIDIA BioNeMo サービスは
創薬のための最先端のジェネレーティブ AI モデルを提供します
クラウド サービスとして利用できるため 高速化された創薬ワークフローに瞬時にアクセスできます
BioNeMo には 3D タンパク質構造予測のための AlphaFold、ESMFold、OpenFold などの
モデルが含まれています
タンパク質生成のための ProtGPT
タンパク質特性予測のための ESM1 と ESM2
分子生成のための MegaMolBART と MoFlow
分子ドッキングのための DiffDock
創薬チームは BioNeMo の Web インターフェイスまたは
クラウド API を介してモデルを利用できます
NVIDIA BioNeMo を利用した
創薬のバーチャル スクリーニングの例をご紹介します
生成モデルはタンパク質のアミノ酸配列を読み取れるようになりました
数秒で標的タンパク質の構造を正確に予測できます
また 体内での薬の挙動を最適化する望ましい ADME 特性を持つ分子を生成できます
生成モデルはタンパク質と分子の 3D 相互作用を予測し
最適な薬の候補の発見を加速します
NVIDIA DGX Cloud と BioNeMo を組み合わせた オンデマンドのスーパー コンピューティング インフラストラクチャによってモデルがさらに最適化され トレーニングされます
チームは貴重な時間と予算を節約し 命を救う薬の発見に集中できます
新しい AI 創薬パイプラインの登場です
登録して BioNeMo サービスをご利用ください
NVIDIA は引き続き業界と協力し
創薬とバーチャル スクリーニングのエンドツーエンド ワークフローを網羅するモデルを BioNemo に組み込みます
Amgen、AstraZeneca、Insilico Medicine、Evozyne、Innophore、Alchemab Therapeutics はBioNeMo を早い段階から導入しています
NVIDIA AI Foundations はカスタム言語モデルとジェネレーティブ AI を構築するためのクラウド サービスであり ファウンドリです
10 年前の AlexNet 以来 ディープラーニングは自動運転、ロボティクス、スマート スピーカーなど 巨大な新しい市場を開き
私たちの買い物の方法、情報の処理方法、音楽の楽しむ方法を再創造してきました
ですが これは氷山の一角に過ぎません
ジェネレーティブ AI が新たな機会を生み出し 推論ワークロードの段階関数を増やしています
AI は転換期を迎えています
AI は音声、テキスト、画像、動画、3D グラフィックス、タンパク質、化学物質など多様なデータを生成できるようになりました
ジェネレーティブ AI を処理するクラウド データ センターの設計は大きな課題です
アクセラレータの種類が 1 つであれば 理想的です データセンターに柔軟性が与えられ
トラフィックの予期しない増減に対処できるからです
その一方で 1 つのアクセラレータでは多様なアルゴリズム、モデル、データ タイプ、サイズを最適処理できません
NVIDIA の One Architecture プラットフォームは高速化と柔軟性の両方を提供します
本日 新しい推論プラットフォームを発表します 構成は 4 つ、アーキテクチャは 1 つ、ソフトウェア スタックは 1 つです
各構成がワークロードの 1 クラスに合わせて最適化されます
AI ビデオ ワークロードについては ビデオのデコーディングとトランスコーディング、ビデオ コンテンツ モデレーション、
ビデオ通話機能は 背景置換、照明変更、アイ コンタクト、
書き起こし、リアルタイムの言語翻訳のために L4 を最適化しています
現在のクラウド ビデオのほとんどは CPU で処理されています
1 台の 8 GPU L4 サーバーが 100 を超えるデュアルソケット CPU サーバーに取って代わり AI 動画を処理します
Snap は NVIDIA AI を利用し コンピューター ビジョンとレコメンダー システムで業界をリードしています
Snap は AV1 動画処理、ジェネレーティブ AI、拡張現実に L4 を使用します
Snapchat の利用者は毎日 無数の動画をアップロードしています
Google は本日 GCP の NVIDIA L4 を発表しました
NVIDIA と Google Cloud は L4 で主要なワークロードを展開する作業に取り組んでいます
5 つ紹介しましょう
1 つ目 Wombo や Descript などのクラウド サービス向けにジェネレーティブ AI モデルの推論を高速化しています
2 つ目 Triton Inference Server を Google Kubernetes Engine と VertexAI と統合しています
3 つ目 Google Dataproc を NVIDIA Spark-RAPIDS で高速化しています
4 つ目 AlphaFold と大規模言語モデルの UL2 と T5 を高速化しています
5 つ目 NVIDIA は 3D と AR の体験をレンダーする Google Cloud の Immersive Stream を高速化しています
このコラボレーションにより Google GCP はプレミア NVIDIA AI クラウドになります
近日中に NVIDIA のコラボレーションについてさらに詳しくお伝えできることを楽しみにしています
Omniverse、グラフィックス レンダリング、テキストから画像、テキストから動画への変換のようなジェネレーティブ AI 向けに NVIDIA は L40 を発表します
L40 は最も一般的なクラウド推論 GPU である NVIDIA の T4 よりパフォーマンスが最大 10 倍になります
Runway はジェネレーティブ AI の先駆けです
その研究チームは Stable Diffusion とその前身である Latent Diffusion の主要なクリエイターでした
Runway はコンテンツを作成し 編集するためのジェネレーティブ AI モデルを開発しています
AI Magic Tools は 30 を超えており すべてクラウドから配信されるそのサービスはクリエイティブ プロセスの革命を起こしています
こちらをご覧ください
Runway は AI を活用した驚異的な動画編集や画像作成のツールを誰もが利用できるようにしています
ローカルまたはクラウドで実行される最新世代の NVIDIA GPU を搭載した Runway は
ほんの数回の塗りつぶすだけで動画から物体を取り除くことができます
あるいは 入力画像だけを使用し さまざまなスタイルを動画に適用します
あるいは 動画の背景や前景を変更します
従来のツールでは数時間を要したものが プロの放送品質の結果で
わずか数分で完成できるようになりました
Runway でこれを可能にしているのが CV-CUDA です CV-CUDA はオープンソース プロジェクトであり
GPU で高速化する効率性に優れた事前処理パイプラインと事後処理パイプラインをコンピューター ビジョン ワークロード向けに開発し 拡張してクラウドに展開できます
NVIDIA テクノロジと Runway の組み合わせで不可能を可能にし コンテンツ制作者に最高の制作環境を与えます
以前はプロしかできなかったことが誰でも可能になりました
実際 Runway はアカデミー賞にノミネートされたハリウッド映画で使用されており NVIDIA はこのテクノロジを
世界中のクリエイターに届けています
ChatGPT のような大規模言語モデルは重要な新しい推論ワークロードです
GPT モデルはメモリ使用量が多く 計算負荷が高くなります
さらに 推論は大量のスケールアウト型ワークロードであり 標準的な商用サーバーを必要とします
ChatGPT などの大規模言語モデル推論向けに 新しい Hopper GPU (デュアル GPU NVLINK 搭載の PCIE H100) を
発表します新しい H100 には 94GB の HBM3 メモリがあります
H100 はパラメーターが 1,750 億個の GPT-3 を処理できます
また 商用 PCIE サーバーをサポートするため 拡張が簡単です
現在のところ クラウドで ChatGPT を実質的に処理できる唯一の GPU が HGX A100 です
GPT-3 処理の HGX A100 と比較すると 4 組の H100 とデュアル GPU NVLINK の標準サーバーは
最大 10 倍の速さになります
H100 は大規模言語モデルの処理コストを大幅に削減できます
Grace Hopper は NVIDIA の新しいスーパーチップであり 毎秒 900 GB の高速コヒーレント チップ間インターフェイスで
Grace CPU と Hopper GPU を接続します
Grace Hopper は レコメンダー システムや大規模言語モデルのための AI データベースなど
巨大なデータ セットの処理に最適です
現在では CPU と大容量メモリで巨大な組み込みテーブルを格納し クエリを実行し 結果を GPU に転送して推論を行います
Grace-Hopper を使用すると Grace は組み込みテーブルにクエリを実行し 結果を高速のインターフェイスで Hopper に直接転送します
PCIE の 7 倍の速さです
顧客は AI データベースを数桁大きく構築したいと考えています
Grace-Hopper は理想的なエンジンです
これが NVIDIA の推論プラットフォームであり 1 つのアーキテクチャで多様な AI ワークロードに対応し
データセンターの高速化と融通性を最大化します
世界最大級の各種産業でモノが物理的に作られていますが デジタルによる開発が望まれています
Omniverse はデジタルとフィジカルを橋渡しする産業デジタル化のためのプラットフォームです
各種産業はレプリカの現物を作る前に 物理的な製品や工場をデジタルで
設計し 構築し 運用し 最適化できます
デジタル化は効率性とスピードを上げ コストを節約します
Omniverse の用途の 1 つは工場の仮想立ち上げです 工場を実際に建設する前に
機械類をすべてデジタルで統合します
土壇場での予期しない事態、指示の変更、工場の稼働開始の遅延が少なくなります
仮想の工場統合により 世界中の工場で大金を節約できます
半導体業界は 5,000 億ドルを投資し 記録的な 84 の新しい工場を建設しています
2030 年までに自動車メーカーは 300 の工場を建設し 2 億台の電気自動車を製造する予定です
そして電池メーカーはさらに 100 の巨大工場を建設しています
デジタル化は物流も変えています 世界中の無数の倉庫から商品を移動させています
Omniverse を利用し 自律型倉庫を自動化、最適化、計画する Amazon の方法を見てみましょう
Amazon Robotics は大量の移動型産業ロボットを製造し 世界中に配備しています
このロボット群に新しく加わったのが Amazon 初の完全自律型倉庫ロボット Proteus です
Proteus は高度な安全性、認識、ナビゲーション技術を利用して施設内を移動するように設計されています
Omniverse をベースとする NVIDIA Isaac Sim が物理的に正確で写真のようにリアルなシミュレーションを制作し
Proteus の配備を加速する仕組みをご覧ください
Proteus はカメラ、ライダー、超音波センサーなど 複数のセンサーを備え
自律型ソフトウェア システムを支援します
Proteus チームは起点マーカーを読み取り ロボットに地図上の場所を判断させるニューラル ネットワークのパフォーマンスを
改善する必要がありました
ロボットのセンサー入力で駆動する機械学習モデルをトレーニングするには大量かつ適切な種類のデータが必要です
Isaac Sim の Omniverse Replicator を利用することで Amazon Robotics は写真のようにリアルな合成データセットを大量に生成できました
マーカー検出の成功率が 88.6% から 98% に改善されました
Omniverse Replicator によって生成された合成データを使用することで開発時間も数か月から数日に短縮されました
実際のデータのみを使用する場合よりもずっと短い時間でモデルのテストとトレーニングを繰り返すことができます
拡大を続ける Proteus ロボット群の新しい自律機能を実現するため Amazon Robotics は
シミュレーションと現実のギャップを埋める研究と 大規模なマルチセンサー/マルチロボット シミュレーションに取り組んでいます
Amazon Robotics は Omniverse を導入することで 完全な忠実度の倉庫のデジタル ツインで運用を最適化することができます
合成データを生成する場合でも 新しいレベルの自律性を開発する場合でも Omniverse で Isaac Sim を利用し
Proteus を施設全体に配備することで Amazon Robotics チームは時間とコストを節約できます
Omniverse にはデジタル化のための独自のテクノロジがあります
Omniverse は USD を使用する最高の開発プラットフォームです USD は複数のチームが共同で仮想世界やデジタル ツインを制作するときに
共通の言語になります
Omniverse は物理ベースであり 物理法則を反映しています
ロボティクス システムに接続され ハードウェアインザループで動作します
ジェネレーティブ AI を搭載し 仮想世界の制作を加速します
Omniverse は膨大なデータ セットを管理できます
あらゆる分野で Omniverse は大幅にアップデートされています
見てみましょう
約 30 万人のクリエイターとデザイナーが Omniverse をダウンロードしています
Omniverse はツールではなく USD ネットワークと共有データベースであり
業界をまたいで使用されているデザイン ツールに接続されるファブリックです
業界をリードするツールによって作成されたアセットを接続し 構成し シミュレーションします
Omniverse 接続の増加を喜ばしく思います
新しい接続のたびに 1 つのプラットフォームのエコシステムとその他すべてのエコシステムがつながります
各種ネットワークからなる Omniverse のネットワークは飛躍的に増加しています
Bentley Systems LumenRT も接続されました
Siemens Teamcenter、NX、Process Simulate、Rockwell Automation Emulate 3D、Cesium、Unity なども接続されています
3 兆ドルの自動車産業のデジタル化と
自動車メーカーがそのワークフローで Omniverse をどのように評価しているか見てみましょう
Volvo Cars と GM は Omniverse USD Composer を使用してアセット パイプラインを接続し 統一しています
GM は Alias、Siemens NX、Unreal、Maya、3ds Max を使用しているデザイナー、スカルプター、アーティストをつなぎ
仮想世界で構成部品を組み立て 車両のデジタル ツインを作ります
エンジニアリングとシミュレーションでは Omniverse で Powerflow の空気力学を視覚化します
Mercedes-Benz と Jaguar Land Rover の次世代車では エンジニアが Omniverse の Drive Sim を使用して
合成データを使って AI モデルをトレーニングし 仮想 NCAP 運転テストでアクティブセイフティ システムを検証し
実際の運転シナリオをシミュレーションしています
Omniverse のジェネレーティブ AI は 以前に運転した経路を 3D で再構築し
過去の体験を再現したり変更したりできます
BMW は Idealworks と協力して Omniverse で Isaac Sim を使用し 合成データとシナリオを生成し
工場のロボットをトレーニングしています
Lotus は Omniverse を使用して溶接ステーションを仮想的に組み立てています
トヨタ自動車は Omniverse を使用して自社工場のデジタル ツインを構築しています
Mercedes-Benz は Omniverse を使用して新しいモデルの組み立てラインを構築、最適化、計画しています
Rimac と Lucid Motors は Omniverse を使用し 自社の車を忠実に表現する実際のデザイン データからデジタル ストアを構築しています
BMW は Omniverse を使用し 世界中の約 30 の工場で事業を計画しています
新しい EV 工場をすべて Omniverse で構築しています 実際に工場を開くのは 2 年先のことです
訪問してみましょう
世界の産業はデジタル化を加速しており 今後 3 年間で 3 兆 4000 億ドル以上が投資されます
BMW では 自動車のデジタル化において最先端を行くよう努めています
NVIDIA Omniverse と AI を利用することで 新しい工場を今までより短期間で立ち上げ 今までより効率的に生産しています
その結果 コストが大幅に削減されています
すべては計画から始まります 計画とはさまざまなツール、データセット、
世界中の専門家をつなげなければならない複雑なプロセスです
従来であれば さまざまなシステムとツールでデータが別々に管理されていたため 限界がありました
今ではすべてが様変わりしています
独自の Omniverse アプリケーションを開発し 既存のツール、ノウハウ、チームをつなぎ
1 つの画面に全部表示されるようにします
Omniverse はクラウドネイティブであり クラウドに依存しません チームはどこにいても仮想工場で共同作業できます
2025 年にはハンガリーのデブレツェンに新しい EV 工場がオープンします 私はこれからそのプランニング セッションにバーチャルで参加するところです
バーチャルの世界に飛び込みましょう
プランナー 1: ええと Milan が参加します
Milan: こんにちは みなさん
プランナー 1: Milan さん お会いできて光栄です 私たちは車体工場の最適化ループに取り組んでいるところです
ご覧になりますか?
Milan: ありがとう 面白そうですねそれから友人を招待したいのですが
プランナー 1: 構いませんよ
Jensen: やぁ Milan 久しぶり
Milan: Jensen バーチャル版のプランニング セッションにようこそ
Jensen: ここは最高だねこれは何かな?
Milan: グローバル プランニング チームがデブレツェンのデジタル ツインでロボット セルに取り組んでいます
Matthias 状況を教えてください
Matthias: 生産コンセプトに変更が必要なことが判明したところです
レイアウトの構成をやり直し 新しいロボットをセルに追加します
プランナー 2: ロジスティクス側で新しいロボットを追加するとなると ストレージ コンテナーを移動する必要があります
プランナー 3: それでは この新しいロボットを中に入れましょう
Matthias: それはいいでも ダブルチェックしましょう セルを実行できますか?
上出来です
Jensen: Milan 本当に驚きだ
仮想工場の統合はあらゆる産業にとって不可欠です
チームの働きぶりは私の誇りですよくやってくれました
Milan: 私たちはローカルを最適化するべくグローバルに取り組んでいます
プランニングの後は運用が重要 もうすでに始まっています
仮想工場の立ち上げを記念して 初のデジタル工場オープニングに招待します
Jensen: 光栄だねさぁ始めよう
自動車会社は約 1,400 万人を雇用しています
デジタル化により この業界の効率性、生産性、スピードが強化されます
Omniverse は 産業をデジタル化するためにデジタルから物理の橋渡しをするオペレーティング システムです
本日 Omniverse を実行するために設計された 3 つのシステムを発表します
1 つ目 NVIDIA Ada RTX GPU と Intel の最新 CPU を搭載した新世代ワークステーションを発売します
この新しいワークステーションはレイ トレーシング、物理シミュレーション、ニューラル グラフィックス、ジェネレーティブ AI に最適です
3 月以降 Boxx、Dell、HP、Lenovo から発売される予定です
2 つ目 Omniverse 向けに最適化された新しい NVIDIA OVX サーバーです
OVX は L40 Ada RTX サーバー GPU と NVIDIA の新しい BlueField-3 で構成されています
OVX サーバーは Dell、HPE、Quanta、Gigabyte、Lenovo、Supermicro から入手できます
チップ、システム、ネットワーキング、ソフトウェアを含む Omniverse スタックの各層は新しく発明されたものです
Omniverse コンピューターを構築し 運用するには有能な IT チームが必要です
NVIDIA は Omniverse の拡張を簡単にし 臨場感をアップさせる予定です
見てみましょう
世界最大級の産業が競って物理プロセスをデジタル化しています
今のところ それは複雑な作業です
NVIDIA Omniverse Cloud は PaaS (platform-as-a-service) であり 管理された Omniverse Cloud API 、
ワークフロー、NVIDIA OVX で実行されている カスタマイズ可能なアプリケーションに一瞬で安全にアクセスできます
企業でのチームは Web ブラウザー上の Omniverse Launcher か
カスタムビルドの統合を介して一連のマネージド サービスにアクセスします
Omniverse Cloud に入れば 企業チームは仮想世界を組み立てる基礎的なアプリケーションやワークフローに
瞬時にアクセスし、拡張し、公開できます
知覚 AI をトレーニングするデータを生成できます
自動運転車両を試験し 検証できます
自律ロボットをシミュレートできます
共有データにアクセスし Omniverse Nucleus に公開します
デザイナーやエンジニアは RTX ワークステーションでお気に入りのサードパーティのデザイン ツールを使用し
編集内容を Nucleus に同時に公開できます
その後 Omniverse で統合モデルを反復処理か表示する準備ができたら
Web ブラウザーを開いてログインします
プロジェクトやチームの規模が拡大する中 Omniverse Cloud はコストの最適化に役立ちます
コンピューティング リソースやライセンスを必要に応じてプロビジョニングできるためです
また 新しいサービスやアップグレードが自動的にリアルタイム アップデートで提供されます
Omniverse Cloud があれば 企業は統合型のデジタル化とコラボレーションを
主要な産業ワークフローに短期間で導入し コストと無駄を減らし
イノベーションまでの道のりを加速できます
Omniverse でお会いしましょう
本日 完全なマネージド クラウド サービスである NVIDIA Omniverse Cloud を発表します
NVIDIA は Microsoft と業務提携し Omniverse Cloud を世界の産業に導入します
NVIDIA はそれを Azure でホストし ストレージ セキュリティ アプリケーション サービスからなる Microsoft の豊富なポートフォリオを活用します
Teams、OneDrive、SharePoint、Azure IoT Digital Twins といったサービスなど
Microsoft 365 生産性スイートに Omniverse Cloud を接続しています
Microsoft と NVIDIA は 数億人もの Microsoft 365 ユーザーと Azure ユーザーに Omniverse を提供します
アクセラレーテッド コンピューティングと AI の到来です
開発者は高速化とスケールアップに NVIDIA を利用し 以前は不可能だった問題を解決しています
ネット ゼロは非常に困難な挑戦です電力を節約するには あらゆる企業があらゆるワークロードを高速化する必要があります
アクセラレーテッド コンピューティングにはフルスタックでデータセンター規模のコンピューティングが求められる難題です
Grace、Grace-Hopper、BlueField-3 はエネルギー効率に優れたアクセラレーテッド データ センター用の新しいチップです
アクセラレーション ライブラリは新しい課題を解決し 新しい市場を開きます
量子コンピューティングのための cuQuantum、組み合わせ最適化のための cuOpt 計算リソグラフィのための cuLitho など
100 のアクセラレーション ライブラリをアップデートしました
TSMC、ASML、Synopsys と協力して 2 nm の先を目指すことに胸が躍ります
NVIDIA DGX AI スーパーコンピューターは生成大規模言語モデルのブレイクスルーを支えるエンジンです
DGX H100 AI スーパーコンピューターが生産開始しました
世界中で拡大を続ける OEM パートナーとクラウド パートナーから近いうちに販売される予定です
DGX スーパーコンピューターは研究を超え 現代の AI ファクトリーになろうとしています
あらゆる企業がインテリジェンスを製造することになります
Microsoft Azure、Google GCP、Oracle OCI と提携することで NVIDIA DGX Cloud でビジネス モデルを拡張し
あらゆる企業がブラウザーから瞬時に NVIDIA AI を使えるようにします
DGX Cloud は NVIDIA の最高のテクノロジと世界をリードする CSP の最高のテクノロジを顧客に提供します
iPhone のような革命的瞬間が AI に到来しています
ジェネレーティブ AI 推論ワークロードが急増しています
NVIDIA は新しい推論プラットフォームを立ち上げました 4 つの構成に 1 つのアーキテクチャです
AI 動画のための L4
Omniverse とグラフィックス レンダリングのための L40
大規模言語モデル推論をスケールアウトするための H100 PCIE
レコメンダー システムとベクトル データベースのための Grace-Hopper
NVIDIA の推論プラットフォームはデータ センターの高速化と融通性を最大化します
NVIDIA と Google Cloud が連携し 幅広い推論ワークロードを展開しています
このコラボレーションにより Google GCP はプレミア NVIDIA AI クラウドになります
NVIDIA AI Foundations はカスタム言語モデルとジェネレーティブ AI を構築するためのクラウド サービスであり ファウンドリです
NVIDIA AI Foundations は言語、ビジュアル、生物学のモデル作成サービスから構成されています
Getty Images と Shutterstock はカスタムのビジュアル言語モデルを構築しています
NVIDIA は Adobe と提携し 未来の創造性を引き出す次世代の AI 機能を開発しています
Omniverse は 産業をデジタル化するためにデジタルから物理の橋渡しをするオペレーティング システムです
Omniverse はエンドツーエンドのワークフローを統合し 1,400 万人を雇用する 3 兆ドルの自動車産業をデジタル化します
Omniverse がクラウドに展開されています
NVIDIA は Microsoft と業務提携して Omniverse Cloud を Azure にホストし 世界中の産業に提供しています
NVIDIA のシステム、クラウド、ソフトウェア パートナー、研究者、科学者
そして NVIDIA のすばらしい社員に
NVIDIA アクセラレーテッド コンピューティング エコシステムを作り上げてくれていることを感謝します
私たちは共に 不可能を成し遂げるこの世界を支援しています
GTC をお楽しみ下さい