NVIDIA - GTC 2023 Keynote with NVIDIA CEO Jensen Huang - 日本語

🎁Amazon Prime 📖Kindle Unlimited 🎧Audible Plus 🎵Amazon Music Unlimited 🌿iHerb 💰Binance

約 40 年間

ムーアの法則はコンピューター産業を動かし

あらゆる産業に影響を与えてきました

一定のコストと電力での性能向上はスローダウンしていますが

コンピューティングの進歩は光速になりました

ワープ ドライブのエンジンはアクセラレーテッド コンピューティングであり エネルギー源は AI です

アクセラレーテッド コンピューティングと AI がタイミングよく現れました

各種産業が強力なダイナミクスに取り組んでいました

持続可能性

ジェネレーティブ AI

デジタル化などです

ムーアの法則がなくなり コンピューティングが急増する中 データ センターの電力が急上昇し

企業はネット ゼロの達成に苦労しています

ジェネレーティブ AI の優れた機能は

製品やビジネス モデルを再創造しなければならないという切迫感を企業に与えました

企業は 競ってデジタル化を進め ソフトウェア主導のテクノロジ企業へと生まれ変わろうとしています

破壊される側ではなく

破壊する側になることを目指して

本日は アクセラレーテッド コンピューティングと AI が こうした課題に取り組み

今後の大きなチャンスにつなげるための強力なツールであることをご説明します

NVIDIA のデータセンター規模のフルスタック アクセラレーテッド コンピューティング プラットフォームの新しい進化を紹介します

新しいチップとシステム、高速化ライブラリ、クラウドと AI サービス

新しい市場を開拓するパートナーシップを発表します

GTC へようこそ

GTC は開発者のためのカンファレンスです

NVIDIA のグローバル エコシステムには 400 万人の開発者、4 万社の企業

1.4 万社のスタートアップが参加しています

NVIDIA をサポートし GTC 2023 を大成功に導くダイヤモンド スポンサーの皆様に感謝いたします

25 万名を超える皆様を NVIDIA カンファレンスにお迎えできて とても嬉しく思います

GTC は驚くほど成長しました

4 年前の対面での NVIDIA GTC カンファレンスの参加者は 8 千人ほどでした

GTC 2023 では、DeepMind の Demis Hassabis 氏

Argonne Labs の Valeri Taylor 氏

Adobe の Scott Belsky 氏

Netflix の Paul Debevec 氏

チューリッヒ工科大学の Thomas Schulthess 氏といったリーダーたちが講演します

また OpenAI の共同創業者であり ChatGPT の開発者である

Ilya Sutskever 氏との特別対談があります

アカデミアや世界最大の産業界で活躍する優秀な方々が参加する 650 ものすばらしい講演を用意しています

ジェネレーティブ AI に関するものだけで 70 以上の講演があります

ロボティクス向けの学習済みマルチタスク モデルに関する講演なども見逃せません

AI を進化させる重要な手法である合成データ生成や

Isaac Sim を利用して物理に基づいたライダー点群を生成する方法などをご紹介するセッション

デジタル ツインに関する講演では AI を利用して未来の仮想工場や

過去に失われたローマのモザイクを復元など

巨大な光学望遠鏡や光子計数 CT など 計算機器に関する講演もすばらしいです

カーボン キャプチャや太陽電池のための材料科学に気候科学 NVIDIA の Earth-2 研究

NVIDIA Research は信頼できる AI と AV の安全性に関する重要な講演を用意しています

超小型の機械を作るマイクロチップの計算リソグラフィから

宇宙を説明する大型ハドロン衝突型加速器の AI まで

自動車と輸送から

ヘルスケア、製造、金融サービス

小売、アパレル、メディア&エンターテイメント、通信に加え

世界を代表する AI 企業まで 世界の重要企業がここに集まります

GTC の目的は アクセラレーテッド コンピューティングの可能性を世界に示し

それを利用する科学者や研究者の功績を称えることです

私は変換する者

テキストを創造的な発見へと変え

動きをアニメーションにし

指示を行動に変えます

私は癒やす者

私たちに個性を与える構成要素を探り

新しい脅威が発生する前にそれをモデル化し

それらを抑えるための治療法を探しています

私は未来を見る者

新たな医療の奇跡を生み出し

太陽を新しい切り口で解明して

この地球を守ります

私は導く者

溢れるコンテンツの中から特別な瞬間を発見し

次の世代の到来を告げ

あらゆる物語にぴったりな設定を与えます

私は作る者

スナップショットから 3D 体験を作り

バーチャルな私たちに新たなリアリティを与えます

私は助ける者

ひらめきを現実にし

無数のプログラマーの知恵を共有し

アイデアを仮想世界へと変えます

北の森を作ります

この台本の執筆を手伝い

言葉に命を吹き込み

メロディーを作曲したのも私です

私は AI

NVIDIA、ディープラーニング、そして世界中の優れた才能によって生み出されました

NVIDIA は通常のコンピューターでは解決できない問題を解決するためにアクセラレーテッド コンピューティングを発明しました

アクセラレーテッド コンピューティングは簡単ではありません

チップ、システム、ネットワーキング

アクセラレーション ライブラリからアプリケーションのリファクタリングまでフルスタックの発明が必要です

各スタックが最適化されることで

グラフィックス、画像処理、粒子、流体力学、

量子物理学、データ処理、機械学習などのアプリケーション ドメインが加速されます

一度高速化されたアプリケーションは 驚異的なスピードアップを実現し多くのコンピューターでスケールアップできます

スピードアップとスケールアップが組み合わされたことで

過去 10 年間 さまざまなアプリケーションが大幅に進化し

これまで不可能であった問題解決が可能になりました

多くの例がありますが 最も有名なものはディープラーニングです

2012 年 Alex Kerchevsky 氏、Ilya Suskever 氏、Geoff Hinton 氏は 非常に高速なコンピューターを必要としていました

AlexNet コンピューター ビジョン モデルをトレーニングするためです

研究者たちは GeForce GTX 580 で 1,400 万枚の画像を使って AlexNet をトレーニングし

262,000 兆の浮動小数点演算を処理しました

トレーニングされたモデルは ImageNet コンテストで大差をつけて勝利し AI ビッグバンに火をつけました

10 年後 Transformer モデルが発明されました

そして現在 OpenAI で働いている Ilya 氏は GPT-3 大規模言語モデルをトレーニングし 次に出てくる単語を予測させました

GPT-3 のトレーニングには 323 セクスティリオン (10 の 21 乗) の浮動小数点演算が必要でした

AlexNet のトレーニングに比べて浮動小数点演算が 100 万倍になりました

その結果として生まれた AI である ChatGPT は世界中で話題になっています

新しいコンピューティング プラットフォームが発明されました

iPhone が登場したときのような革命が AI で始まったのです

アクセラレーテッド コンピューティングと AI の到来です

アクセラレーテッド コンピューティングの中核となるのがアクセラレーション ライブラリです

これらのライブラリがアプリケーションにつながり 世界の産業につながり 各種ネットワークからなるネットワークが形成されます

30 年を経て 数千ものアプリケーションが現在 NVIDIA テクノロジによって高速化されており

科学や産業のほぼすべての領域でライブラリが利用されています

すべての NVIDIA GPU は CUDA に対応しており 大規模なインストール ベースと開発者への大きなリーチを提供します

豊富なアクセラレーテッド アプリケーションがエンドユーザーを引き付け クラウド サービス プロバイダーや

コンピューター メーカーにとって大きな市場を作り出しています

市場が大きければ 研究開発に多額の投資をし 成長を促すことができます

NVIDIA はアクセラレーテッド コンピューティングの好循環を確立しました

レイ トレーシングとニューラル レンダリング、物理、地球、生命科学、量子物理学と化学、コンピューター ビジョン、データ処理、機械学習、AI にまたがる

300 のアクセラレーション ライブラリと 400 の AI モデルのうち

NVIDIA は今年 100 を更新し

インストールベース全体の性能と機能を向上しました

それでは 新しい課題を解決し 新しい市場を切り開くアクセラレーション ライブラリをいくつか紹介します

自動車産業や航空宇宙産業では 乱流や空気力学のシミュレーションに CFD を使用しています

エレクトロニクス業界では 熱管理設計に CFD を使用しています

これは Cadence のスライドですが 新しい CFD ソルバーを CUDA で高速化しています

同等のシステム コストで NVIDIA A100 のスループットは CPU サーバーの 9 倍です

言い換えると 同等のシミュレーション スループットで NVIDIA のコストは 9 分の 1 であり エネルギー消費は 17 分の 1 です

Ansys、Siemens、Cadence、などの主要な CFD ソルバーが現在 CUDA で高速化されています

世界中で産業用 CAE の CPU コアが年間で約 1,000 億時間使用されています

高速化は電力を節約し 持続可能性とネット ゼロを達成するための最良の方法です

NVIDIA は世界中の量子コンピューティング研究コミュニティと提携しています

NVIDIA Quantum プラットフォームは 研究者が量子プログラミング モデル、システム アーキテクチャ、アルゴリズムを進化させるために必要な

ライブラリとシステムから構成されています

cuQuantum は量子回路シミュレーターのための高速化ライブラリです

IBM Qiskit、Google Cirq、Baidu Quantum Leaf、QMWare、QuEra、 Xanadu Pennylane、Agnostiq、AWS Bracket は

cuQuantum をシミュレーション フレームワークに統合しています

Open Quantum CUDA は NVIDIA のハイブリッド GPU-Quantum プログラミング モデルです

IonQ、ORCA Computing、Atom、QuEra、Oxford Quantum Circuits、IQM、Pasqal、Quantum Brilliance、Quantinuum、Rigetti、

Xanadu、Anyon が Open Quantum CUDA を統合しています

量子ノイズとデコヒーレンスからデータを復元するには 大量の量子ビットでエラー訂正する必要があります

本日 NVIDIA は Quantum Machines と提携して開発した量子制御リンクを発表します

NVIDIA GPU を量子コンピューターに接続し 超高速でエラー訂正を行います

商用量子コンピューターはまだ 10 年から 20 年先ですが この大規模で活気に満ちた研究コミュニティを

NVIDIA Quantum でサポートできることを嬉しく思います

世界中の企業が Apache Spark を使用してデータ レイクとデータ ウェアハウス、

SQL クエリ、グラフ分析、レコメンダー システムを処理しています

Spark-RAPIDS は NVIDIA の高速 Apache Spark データ処理エンジンです

データ処理は 世界の 5,000 億ドルのクラウド コンピューティング支出の主要なワークロードです

Spark-RAPIDS は現在 GCP Dataproc、Amazon EMR、Databricks、Cloudera など

主要なクラウド データ処理プラットフォームを高速化しています

レコメンダー システムはベクトル データベースを使用して非構造化データの大量のデータセットを格納、インデックス作成、検索、取得します

ベクトル データベースの新しい重要なユース ケースが大規模言語モデルです

テキスト生成中に 照会可能なドメイン固有または独自のファクトを取得します

NVIDIA は新しいライブラリ RAFT を導入し インデックス作成、データ読み込み、

1 つのクエリの隣接するバッチの取得を高速化します

RAFT の高速化を Meta のオープンソース FAISS AI Similarity Search、1,000 を超える組織に利用されている Milvus オープンソース ベクトル DB、

40 億以上の doker pull を持つ Redis に導入しています

独自の大規模言語モデルを構築する組織にとってベクトル データベースは不可欠です

22 年前 オペレーションズ リサーチを研究する Li 氏と Lim 氏が集配と配送に関する一連の課題 (PDP) を発表しました

PDP は製造、輸送、小売と物流、さらには災害救助に登場しています

PDP は巡回セールスマン問題を一般化したものであり NP 困難です

つまり 正確な解決策を見つける効率的なアルゴリズムはありません

問題の規模が大きくなると 解決時間が要因的に増加します

NVIDIA cuOpt は進化アルゴリズムとアクセラレーテッド コンピューティングを利用して

毎秒 300 億回の移動を分析しました 世界記録を破り Li 氏と Lim 氏の課題に最良の解決策を発見しました

AT&T は日常業務として 3 万人の技術者を派遣し 700 の地域にまたがる 1,300 万人の顧客にサービスを提供しています

現在 CPU で実行されているため AT&T の派遣最適化には一晩かかります

AT&T はリアルタイムの派遣ソリューションの導入を検討しています

継続的に最適化することで顧客の急な要望、遅延、事故に対処しながら全体的な顧客満足度を向上するのが目的です

cuOpt を使用することで AT&T はソリューションを 100 倍速く見つけ その派遣をリアルタイムで更新することができます

AT&T は NVIDIA AI ライブラリを一通り採用しました

Spark-RAPIDS と cuOPT に加え 対話型 AI に Riva を デジタル アバターに Omniverse を使用しています

AT&T は NVIDIA のアクセラレーテッド コンピューティングと AI を活用し 持続可能性、コスト削減、新しいサービスを実現します

cuOpt は物流サービスも最適化できます 毎年 4,000 億個の小包を 3,770 億箇所に届けています

Deloitte、Capgemini、Softserve、Accenture、Quantiphi は NVIDIA cuOpt を利用し 顧客の業務最適化を支援しています

NVIDIA の推論プラットフォームは 3 つのソフトウェア SDK で構成されています

NVIDIA TensorRT はターゲット GPU に合わせて最適化する NVIDIA の推論ランタイムです

NVIDIA Triton は GPU と CPU をサポートするマルチフレームワークのデータ センター推論サービス ソフトウェアです

Microsoft Office、Microsoft Teams、Amazon、American Express、米国郵便サービスなど

4万人のお客様が TensorRT と Triton を利用しています

Uber は Triton を利用して毎秒数十万単位の 到着予測を行っています

1 日あたりの利用者が 6,000 万人を超える Roblox は Triton を利用することでゲーム推奨モデルを提供し

アバターを構築し コンテンツやマーケットプレイス広告をモデレートしています

NVIDIA は優れた新機能をいくつかリリースしています モデル アンサンブルのためのモデル アナライザー、複数同時実行モデルのサービス提供、

GPT-3 大規模言語モデルのためのマルチ GPU マルチノード推論などです

NVIDIA Triton Management Service はデータ センター全体で Triton 推論インスタンスのスケーリングとオーケストレーションを

自動化する新しいソフトウェアです

Triton Management Service はモデル導入のスループットとコスト効率の向上を支援します

クラウド ビデオ パイプラインの 50-80% は CPU で処理され

電力とコストを費やし 遅延を増やしています

コンピューター ビジョンのための CV-CUDA とビデオ処理のための VPF はクラウド規模の新しい高速化ライブラリです

CV-CUDA には検出、セグメンテーション、分類のために 30 のコンピューター ビジョン オペレーターが含まれています

VPF は Python ビデオ エンコード/デコード高速化ライブラリです

Tencent は CV-CUDA と VPF を利用し 1 日あたり 30 万本のビデオを処理しています

Microsoft は CV-CUDA と VPF を利用し ビジュアル検索を処理しています

Runway は CV-CUDA と VPF を利用し クラウドのジェネレーティブ AI 動画編集サービスにおける

動画を処理しているとても優れた企業です

動画はすでにインターネット トラフィックの 80% を占めています

ユーザーはものすごい勢いで動画を作成し 大量の電力を消費しています

私たちはあらゆる動画処理を高速化し 電力を節約すべきです

CV-CUDA と VPF は早期アクセスの段階にあります

NVIDIA アクセラレーテッド コンピューティングはゲノム解析で偉業を達成しました

医師は患者が来院したその日のうちに採血し DNA の配列を決定できるようになりました

もう 1 つの偉業は NVIDIA 搭載の機器がゲノムシーケンシング全体のコストをわずか 100 ドルまで削減したことです

ゲノム解析は合成生物学にとって重要なツールであり 創薬に

農業からエネルギー生産まで幅広い応用が可能です

NVIDIA Parabricks はクラウド内または機器内でエンドツーエンドのゲノム解析を行う AI アクセラレーテッド ライブラリの一式です

NVIDIA Parabricks は Terra、DNAnexus、FormBio など あらゆるパブリック クラウドとゲノム解析プラットフォームで利用できます

本日 NVIDIA は Parabricks 4.1 を発表します PacBio、Oxford Nanopore、Ultima、Singular、BioNano、Nanostring の

NVIDIA アクセラレーテッド ゲノム解析機器で実行されます

世界の 2,500 億ドル規模の医療機器市場が変わろうとしています

医療機器はソフトウェアデファインドになり AI 対応になります

NVIDIA Holoscan はリアルタイム センサー処理システムのためのソフトウェア ライブラリです

75 社以上の企業が Holoscan で医療機器を開発しています

本日 医療機器の世界をリードする Medtronic と NVIDIA がソフトウェアデファインドの医療機器向けの

AI プラットフォームを開発することをお知らせします

この業務提携からは 手術ナビゲーションからロボット支援手術まで Medtronic の各種システムのための

共通プラットフォームが作られます

Medtronic は本日 結腸癌の早期発見のための AI を搭載した次世代 GI Genius システムが

NVIDIA Holoscan ベースで開発され 今年の終わり頃に出荷されることを発表しました

チップ産業はほぼすべての産業の基礎となっています

チップ製造には極めて高い精度が求められ それはバクテリアの1,000分の1

金原子またはヒト DNA と同じようなサイズの精度が求められます

ウェーハー上でパターンを作るプロセスであるリソグラフィがチップ製造の最初のプロセスであり

フォトマスク作りとパターン転写という 2 つの段階から構成されています

基本的に 物理学の限界ぎりぎりのところで画像を処理する作業です

フォトマスクは、チップのステンシルのようなものです光はマスクを通して通過したり遮られたりしてウェーハーに渡され

パターンが作られます

この光は ASML EUV 極紫外線リソグラフィ システムによって作られます

各システムは 2.5 億ドル以上です

ASML EUV は画期的な方法で光を作ります

一滴のスズにレーザーを毎秒 5 万回あてて気化させ ほぼ X 線とも言える 13.5nm の EUV 光を放射するプラズマを

作り出します

多層鏡が光をマスクに誘導します

マスク レチクルの多層反射体が 13.5nm 光の干渉パターンを活用し

各種機能を 3nm まで小さくします

魔法です

ウェーハーは 4 分の 1 ナノメーター以内に配置され あらゆる振動に合わせて毎秒 2 万回調整されます

リソグラフィ前の手順も同様に奇跡的です

計算リソグラフィでは 逆の物理アルゴリズムを適用し マスク レチクル上のパターンを予測し

ウェーハー上の最終パターンを生成します

実際 マスクのパターンは各種機能の最終形態にまったく似ていません

計算リソグラフィは 光学系を通過した光がフォトレジストと相互作用する際の挙動を

マクスウェルの方程式でシミュレーションします

計算リソグラフィはチップ設計と製造において最大の計算ワークロードであり

年間数十億単位の CPU 時間を消費します

大規模なデータ センターは年中無休稼働し リソグラフィ システムで使用されるレチクルを作ります

そうしたデータ センターは チップ メーカーにおける年間 2,000 億ドル近くの設備投資の一部です

計算リソグラフィはアルゴリズムの複雑化に伴い急成長しており

2nm 以下に向かって業界は進んでいます

NVIDIA は本日 cuLitho を発表します これは計算リソグラフィのためのライブラリです

4 年近くかかった膨大な作業と TSMC、ASML、Synopsys との緊密な連携の末に生まれた cuLitho は

計算リソグラフィを 40 倍以上高速化します

NVIDIA H100 には 89 個のレチクルがあります

CPU で実行する場合 現行では 1 つのレチクルの処理に 2 週間かかります

cuLitho は GPU で実行され 1 回 8 時間のシフトでレチクルを処理できます

TSMC はわずか 500 台の DGX H100 システムで cuLitho を利用して高速化することで計算リソグラフィに使用される 40,000 台の CPU サーバーを削減できます

35MW の電力がわずか 5MW まで削減されます

TSMC は cuLitho を使用することで試作にかかる時間を短縮し スループットを向上させ

製造から発生する二酸化炭素排出量を削減し 2nm 以下の時代に対処できます

TSMC は 6 月から cuLitho で生産を開始する予定です

電力を節約してももっとたくさんのことができるよう あらゆる産業があらゆるワークロードを加速する必要があります

過去 10 年間で クラウド コンピューティングは年間 20% 成長し 1 兆ドルの大規模産業になりました

約 3,000 万台の CPU サーバーが処理の大半を実行します

近々 課題に直面することになりそうです

ムーアの法則が終わることで CPU のパフォーマンスが上がれば 電力が増えます

二酸化炭素排出量を減らすという義務はデータ センターを増やす必要性と根本的に対立しています

クラウド コンピューティングは電力を無制限に使えて成長するものではありません

まず第一に データ センターはあらゆるワークロードを高速化する必要があります

高速化は電力を節約します

節約されたエネルギーは新たな成長の原動力となります

高速化されないものは CPU で処理されます

アクセラレーテッド クラウド データセンターの CPU 設計のポイントは従来とは根本的に異なります

AI とクラウド サービスでは アクセラレーテッド コンピューティングが並列化可能なワークロードをオフロードし CPU が他のワークロード

例えば Web RPC やデータベース クエリなどを処理します

NVIDIA は AI と クラウドファーストの世界のために Grace CPU を設計しました AI ワークロードは GPU で高速化され

Grace はシングルスレッドの実行とメモリ処理に優れています

CPU チップだけが問題ではありませんデータセンター事業者はデータセンター全体のスループットと総所有コストを最適化します

NVIDIA はクラウド データセンター規模での高いエネルギー効率を実現するために Grace を設計しました

Grace は 72 個の Arm コアで構成されており そのコアが超高速オンチップのスケーラブルなコヒーレント ファブリックで接続され

毎秒 3.2 TB の帯域幅を提供します

Grace Superchip は毎秒 900 GB と低電力なチップ間コヒーレント インターフェイスを利用し 2 つの CPU ダイ間で 144 個のコアを接続します

メモリ システムは 携帯電話で使用されている LPDDR 低電力メモリであり データセンターで使用するために特別に強化されています

現在のシステムの 2.5 倍の帯域幅である毎秒 1TB を、8 分の 1 の電力で提供します

1TB のメモリを搭載した 144 コア Grace Superchip モジュール全体でわずか 5x8 インチです

非常に低電力であり空冷できます

これはパッシブ冷却を備えたコンピューティング モジュールです

2 台の Grace Superchip コンピューターが 1 台の 1U 空冷サーバーに収まります

Grace のパフォーマンスと電力効率はクラウドや科学計算処理アプリケーションに最適です

NVIDIA は クラウド マイクロサービスの通信速度をテストする人気の Google ベンチマークと

Apache Spark のメモリ負荷の高いデータ処理をテストする Hi-Bench スイートで Grace をテストしました

このようなワークロードはクラウド データセンターの基礎となります

マイクロサービスでは Grace は最新世代の x86 CPU の平均より 1.3 倍の速さであり

データ処理では 1.2 倍の速さになります

さらに高いパフォーマンスも サーバー ノード全体で測定された電力のわずか 60% を使用して達成されます

CSP は電力制限のあるデータ センターで 1.7 倍の Grace サーバーを設置し それぞれスループットを 25% 向上させることができます

iso パワーでは Grace は CSP の成長機会を 2 倍にします

Grace はサンプリング中です

Asus、Atos、Gigabyte、HPE、QCT、Supermicro、Wistron、ZT が現在 システムを構築しています

ソフトウェア デファインドの最新型データ センターでは 仮想化、ネットワーク、ストレージ、セキュリティを実行するオペレーティング システムで

データセンターの CPU コアと付随する電力のほぼ半分を消費することがあります

データセンターはあらゆるワークロードを高速化して電力を節約し 収益を生むワークロードのために CPU を解放する必要があります

NVIDIA BlueField は データセンターのオペレーティング システムとインフラストラクチャ ソフトウェアの負荷を減らし 高速化します

Check Point、Cisco、DDN、Dell EMC、Juniper、Palo Alto Networks、Red Hat、VMWare など 20 社を超えるエコシステム パートナーが

BlueField のデータセンター高速化技術を利用し

ソフトウェア プラットフォームより効率的に稼動しています

BlueField-3 は生産中であり 業界をリードするクラウド サービス プロバイダーである Baidu、CoreWeave、JD.com、Microsoft Azure、

Oracle OCI、Tencent Games によって採用されており クラウドを高速化しています

NVIDIA アクセラレーテッド コンピューティングは世界の AI スーパーコンピューターである DGX から始まり

大規模言語モデルの飛躍的な発展を支えるエンジンとなっています

世界初の DGX は私が OpenAI に手渡しました

それ以降 Fortune 100 社の半数が DGX AI スーパーコンピューターを設置しました

DGX は AI に不可欠な道具となったのです

DGX は 8 基の H100 モジュール の GPUを搭載しています

H100 は驚異的な ChatGPT のようなモデルを処理するように設計されたTransformer エンジンを備えています

GPT は Generative Pre-trained Transformer の略です

8 基の H100 モジュールが NVLINK スイッチを介して相互に接続され遮断のまったくないトランザクションを可能にします

8 基の H100 が 1 つの巨大な GPU として機能します

コンピューティング ファブリックは AI スーパーコンピューターの最も重要なシステムの 1 つです

400 Gbps の超低遅延 NVIDIA Quantum InfiniBand は

ネットワーク内処理を備え

無数の DGX ノードを

AI スーパーコンピューターに接続します

NVIDIA DGX H100 は AI インフラストラクチャを構築する世界中の顧客の設計図となります

H100 は量産を開始しています

Microsoft が Azure で H100 AI スーパーコンピューターのプライベート プレビューを公開することを 発表し 嬉しく思います

その他のシステムとクラウド サービスはまもなくAtos、AWS、Cirrascale、CoreWeave、Dell、Gigabyte、Google、HPE、

Lambda Labs、Lenovo、Oracle、Quanta、SuperMicro から提供されます

DGX AI スーパーコンピューターの市場は大きく成長しています

もともと AI 研究用として使用されていたDGX AI スーパーコンピューターの運用は拡大しており

24時間365日稼働し データの精製や AI の処理に取り組んでいます

DGX スーパーコンピューターは最新式の AI 工場です

iPhone が登場したときのような革命的瞬間が AI に訪れています

スタートアップ企業は競うように斬新な製品とビジネス モデルを開発し既存企業もそれに凌ぎを削っています

ジェネレーティブ AI をきっかけに世界中の企業がAI 戦略の策定に危機感を持つようになりました

NVIDIA AI を簡単に利用する方法を顧客は求めています

NVIDIA は Microsoft Azure、Google GCP、Oracle OCI との業務提携によりNVIDIA DGX Cloud を発表します

これにより あらゆる企業がブラウザーから NVIDIA DGX AI スーパーコンピューターに瞬時にアクセスできるようになります

DGX Cloud は AI のエンドツーエンドの開発と展開で世界をリードするアクセラレーション ライブラリ スイートである

NVIDIA AI Enterprise 向けに最適化されています

DGX Cloud は NVIDIA AI と世界をリードするクラウド サービス プロバイダーの最高峰をお客様に提供します

この業務提携により NVIDIA のエコシステムが CSP に広がりNVIDIA の規模と範囲を拡大します

このウィン/ウィンの業務提携により ジェネレーティブ AI の開発に取り組む企業は 世界規模のクラウドで NVIDIA テクノロジをすぐに活用できるようになります

我々は このクラウドによるビジネス モデルの拡張がもたらすスピード、規模、展開の広がりに胸が躍ります

Oracle Cloud Infrastructure (OCI) がまず最初の NVIDIA DGX Cloud となります

OCI はパフォーマンスに優れています2 層のコンピューティング ファブリックと管理ネットワークがあります

NVIDIA の CX-7 は業界最高水準の RDMA を搭載したコンピューティング ファブリックです

BlueField-3 は管理ネットワークのインフラストラクチャ プロセッサとなります

この組み合わせは マルチテナント クラウド サービスとして提供できる最先端の DGX AI スーパーコンピューターです

NVIDIA には 個人向けインターネットとソフトウェア、ヘルスケア、

メディア & エンターテイメント、金融サービスなど 50 社の早期アクセス対象の法人顧客がいます

ChatGPT、Stable Diffusion、DALL-E、Midjourney がきっかけとなり世界はジェネレーティブ AI の力に気付きました

こうしたアプリケーションは使い勝手が良く 優れた機能を備えわずか数か月で 1 億人を超える利用者を集めました

ChatGPT は史上最も急成長したアプリケーションです

トレーニングは必要ありません何かしてとモデルに頼むだけです

プロンプトは正確なものでも曖昧なもので良いです明確でない場合

ChatGPT は会話を通してあなたの意図を学習します

生成されたテキストは感動を通り越したものです

ChatGPT はメモや詩を作り 論文をわかりやすく言い換え数学の問題を解き

契約書の重要な部分を強調表示し さらにはソフトウェア プログラムのコードを書きます

ChatGPT はソフトウェアを実行するだけでなく ソフトウェアを記述するコンピューターです

さまざまな飛躍的進化がジェネレーティブ AI に繋がっています

Transformer は大量のデータを並列処理しその関係性と依存関係から文脈と意味を学習します

その結果 明示的なトレーニングなしで大量のデータから学習し

下流のタスクを実行できる大規模言語モデルが作られました

物理学からヒントを得た拡散モデルは 監督なしで学習し画像を生成します

猫の認識に四苦八苦していたものが わずか 10 年で

宇宙服を着た猫が月を歩いているリアルな絵を

描けるようになりました

ジェネレーティブ AI は人間の言語でプログラミングする新しい種類のコンピューターです

この能力は大きな意味を持っています誰もがコンピューターに指示して問題を解決することができます

これはコンピューター プログラマーだけの領域でした

今では誰もがプログラマーです

ジェネレーティブ AI は PC、インターネット、モバイル、クラウドなど同様の新しいコンピューティング プラットフォームです

かつてのコンピューティング時代と同様に先発企業が新しいアプリケーションを開発して新しい会社を興し

ジェネレーティブ AI の自動化機能と共同作成機能に投資しています

Debuild では ユーザーが望むものを説明するだけでWeb アプリケーションを設計し 展開できます

Grammarly は文脈を考慮する作文アシスタントです

Tabnine は開発者のコード記述を支援します

Omnekey はカスタマイズされた広告とコピーを生成します

Kore.ai は仮想のカスタマー サービス エージェントです

Jasper はマーケティング資料を生成しますJasper は約 50 億語を書き

初稿の生成にかかる時間を 80% 短縮しました

Insilico は AI を利用して医薬品設計を加速します

Absci は AI を利用して治療用抗体を予測します

ジェネレーティブ AI はほぼすべての産業を変革するでしょう

市場に入ってくる優れたジェネレーティブ AI API を多くの企業が利用しています

企業によっては独自のデータで その領域に特化したカスタム モデルを構築する必要があります

利用上のルールを設定し 自社の安全性、プライバシー、セキュリティに

沿ったモデルに改良する必要があります

この業界では カスタムの大規模言語モデルの半導体製造工場 TSMC を必要としています

NVIDIA は本日 NVIDIA AI Foundations を発表します

独自のデータでその分野固有のタスクに合わせて

トレーニングされたカスタム LLM と

ジェネレーティブ AI を構築、改良、運用する

顧客のためのクラウド サービスです

NVIDIA AI Foundations は言語、

ビジュアル、生物学のモデル作成サービスから構成されています

NVIDIA NeMo は テキストからテキストを生成する

カスタム言語モデルを構築します

顧客は独自のモデルを持ち込むか トレーニング済みのNeMo 言語モデルから始めることができます

GPT パラメーター数には 80 億個、430 億個、5300 億個があります

独自モデルの作成から運用まで プロセス全体でNVIDIA AI エキスパートがお手伝いします

それでは 見てみましょう

NVIDIA の 430 億基盤モデルのような生成モデルは数十億単位の文章と

数兆単位の単語でトレーニングして学習します

収束したモデルは その埋め込み空間で重み付けされて捉えられた

単語とその基礎概念を理解し始めます

Transformer モデルでは 自己注意と呼ばれる手法を使用しますこれは連続する単語内の依存性と関係を

学習するように設計されたメカニズムです

その結果 ChatGPT のような体験ができる基盤となるモデルができあがります

これらの生成モデルは膨大な量のデータ、

データ処理と分散トレーニングのための AI の深い専門知識、

イノベーション ペースでトレーニング、展開、保守管理するための大規模コンピューティングを必要とします

企業は NVIDIA NeMo サービスを NVIDIA DGX Cloud で実行することで

ジェネレーティブ AI を短期間で導入できます

1 番手っ取り早いのは NVIDIA の最先端の

学習済み基盤モデルから始めることです

NeMo サービスを利用することで 組織は簡単にモデルをカスタマイズできます

p チューニングを利用して特別なスキルを習得できます

たとえば 財務文書を要約します

ブランド固有のコンテンツを作成します

パーソナライズされた内容でメールを作成します

独自のナレッジ ベースにモデルを接続することで

ビジネスに沿った応答が

常に正確かつ最新の状態で返されます

次に 脱線防止策としてロジックを追加し

入力、出力、毒性、偏りのしきい値を監視します

それにより 指定されたドメイン内で動作し

望まれない応答を防ぎます

動き出したモデルはユーザーとのやりとりを基盤とする強化学習によって

継続的に改善されます

大規模な評価やアプリケーション統合に向けて クラウド API に移行する前に

NeMo のプレイグラウンドを利用して短期間で試作できます

今すぐ NVIDIA NeMo サービスに登録し

企業の知識を体系化し

AI モデルをパーソナライズして自社で制御してください

Picasso は ライセンスを供与されたコンテンツか独自のコンテンツでトレーニングされたカスタム モデルの構築を望む

顧客向けビジュアル言語モデル作成サービスです

それでは見てみましょう

ジェネレーティブ AI はビジュアル コンテンツの制作方法を変えています

しかし その可能性を最大限に引き出すためには 著作権問題をクリアした大量のデータ、AI の専門家、AI スーパーコンピューターが必要です

NVIDIA Picasso は ジェネレーティブ AI で作られる画像、

動画、3D アプリケーションを構築し 展開するためのクラウド サービスです

これを利用することで 企業、ISV、サービス プロバイダーは

独自のモデルを展開できます

NVIDIA はプレミア パートナーと協力し

ジェネレーティブ AI 機能をあらゆる産業に届けます

組織は NVIDIA Edify モデルから始めることもできます

モデルを独自のデータでトレーニングし 製品やサービスを作ります

そうしたモデルから画像、動画、3D アセットが作られます

ジェネレーティブ AI モデルにアクセスするために

アプリケーションは API を呼び出し、テキスト プロンプト、

メタデータを Picasso に送信します

Picasso では適切なモデルを NVIDIA DGX Cloud で実行し

生成されたアセットをアプリケーションに返します

写真のようにリアルな画像、高解像度の動画、詳細な 3D ジオメトリなどです

生成されたアセットは編集ツールや NVIDIA Omniverse にインポートし写真のようにリアルな仮想世界、

メタバース アプリケーション、デジタル ツイン シミュレーションを構築できます

NVIDIA Picasso サービスを NVIDIA DGX Cloud で実行することで

カスタム ジェネレーティブ AI アプリケーションを構築するために必要な

トレーニング、最適化、推論を合理化できます

世界を変えるジェネレーティブ AI 機能を NVIDIA Picasso がアプリケーションにもたらします その仕組みをご覧ください

確実にライセンスを供与されたプロフェッショナルな画像や動画アセットの豊富なライブラリでトレーニングされた Edify 画像/Edify 動画生成モデルを構築するために

Getty Images が Picasso サービスを利用することを嬉しく思います

企業は簡単なテキストや画像プロンプトでカスタムの画像や動画を作成できるようになります

Shutterstock はプロフェッショナルな画像、3D、動画アセット ライブラリで

トレーニングされた Edify-3D 生成モデルを開発しています

Shutterstock はクリエイティブな制作、デジタル ツイン、仮想コラボレーションのための 3D アセットの作成を簡素化し

これらのワークフローを企業がより迅速かつ容易に導入できるよう支援します

Adobe と長年のパートナーシップを大幅に拡大し クリエイティブの未来のための次世代 AI 機能構築について発表できて嬉しく思います

ジェネレーティブ AI をマーケティング担当者や

クリエイティブ プロフェッショナルの日常的な業務フローに統合します

新しいジェネレーティブ AI モデルは画像作成、動画、3D、

アニメーション向けに最適化される予定です

アーティストの権利を守るため Adobe は Adobe の Content Authenticity Initiative を活用し

商業的な可能性と適切なコンテンツ帰属を重視して開発を進めています

第 3 の言語領域が生物学です

創薬は約 2 兆ドルの産業であり

2,500 億ドルが研究開発に費やされています

NVIDIA Clara は画像処理、機器、ゲノム解析、創薬のための

医療アプリケーション フレームワークです

業界は現在 ジェネレーティブ AI を活用する方向で進んでいます

病気の標的を発見し、新しい分子やタンパク質ベースの医薬品を設計し体内における医薬品の挙動を予測するためです

無数に存在する新興の AI 創薬スタートアップ企業にはInsilico Medicine、Exscientia、Absci、Evozyme などがあります

新しい標的や薬の候補を発見し 人体による臨床試験を始めている企業もあります

BioNemo は 研究者が 独自のデータでカスタム モデルを

作成、微調整、提供することを支援します

それでは 見てみましょう

創薬には 3 つの重要な段階があります

病気を引き起こす体の仕組みを発見する

新しい分子として小分子、タンパク質、抗体を設計する

最後に分子の相互作用を選別する

現在 この創薬プロセスのあらゆる段階をジェネレーティブ AI が変えています

NVIDIA BioNeMo サービスは

創薬のための最先端のジェネレーティブ AI モデルを提供します

クラウド サービスとして利用できるため 高速化された創薬ワークフローに瞬時にアクセスできます

BioNeMo には 3D タンパク質構造予測のための AlphaFold、ESMFold、OpenFold などの

モデルが含まれています

タンパク質生成のための ProtGPT

タンパク質特性予測のための ESM1 と ESM2

分子生成のための MegaMolBART と MoFlow

分子ドッキングのための DiffDock

創薬チームは BioNeMo の Web インターフェイスまたは

クラウド API を介してモデルを利用できます

NVIDIA BioNeMo を利用した

創薬のバーチャル スクリーニングの例をご紹介します

生成モデルはタンパク質のアミノ酸配列を読み取れるようになりました

数秒で標的タンパク質の構造を正確に予測できます

また 体内での薬の挙動を最適化する望ましい ADME 特性を持つ分子を生成できます

生成モデルはタンパク質と分子の 3D 相互作用を予測し

最適な薬の候補の発見を加速します

NVIDIA DGX Cloud と BioNeMo を組み合わせた オンデマンドのスーパー コンピューティング インフラストラクチャによってモデルがさらに最適化され トレーニングされます

チームは貴重な時間と予算を節約し 命を救う薬の発見に集中できます

新しい AI 創薬パイプラインの登場です

登録して BioNeMo サービスをご利用ください

NVIDIA は引き続き業界と協力し

創薬とバーチャル スクリーニングのエンドツーエンド ワークフローを網羅するモデルを BioNemo に組み込みます

Amgen、AstraZeneca、Insilico Medicine、Evozyne、Innophore、Alchemab Therapeutics はBioNeMo を早い段階から導入しています

NVIDIA AI Foundations はカスタム言語モデルとジェネレーティブ AI を構築するためのクラウド サービスであり ファウンドリです

10 年前の AlexNet 以来 ディープラーニングは自動運転、ロボティクス、スマート スピーカーなど 巨大な新しい市場を開き

私たちの買い物の方法、情報の処理方法、音楽の楽しむ方法を再創造してきました

ですが これは氷山の一角に過ぎません

ジェネレーティブ AI が新たな機会を生み出し 推論ワークロードの段階関数を増やしています

AI は転換期を迎えています

AI は音声、テキスト、画像、動画、3D グラフィックス、タンパク質、化学物質など多様なデータを生成できるようになりました

ジェネレーティブ AI を処理するクラウド データ センターの設計は大きな課題です

アクセラレータの種類が 1 つであれば 理想的です データセンターに柔軟性が与えられ

トラフィックの予期しない増減に対処できるからです

その一方で 1 つのアクセラレータでは多様なアルゴリズム、モデル、データ タイプ、サイズを最適処理できません

NVIDIA の One Architecture プラットフォームは高速化と柔軟性の両方を提供します

本日 新しい推論プラットフォームを発表します 構成は 4 つ、アーキテクチャは 1 つ、ソフトウェア スタックは 1 つです

各構成がワークロードの 1 クラスに合わせて最適化されます

AI ビデオ ワークロードについては ビデオのデコーディングとトランスコーディング、ビデオ コンテンツ モデレーション、

ビデオ通話機能は 背景置換、照明変更、アイ コンタクト、

書き起こし、リアルタイムの言語翻訳のために L4 を最適化しています

現在のクラウド ビデオのほとんどは CPU で処理されています

1 台の 8 GPU L4 サーバーが 100 を超えるデュアルソケット CPU サーバーに取って代わり AI 動画を処理します

Snap は NVIDIA AI を利用し コンピューター ビジョンとレコメンダー システムで業界をリードしています

Snap は AV1 動画処理、ジェネレーティブ AI、拡張現実に L4 を使用します

Snapchat の利用者は毎日 無数の動画をアップロードしています

Google は本日 GCP の NVIDIA L4 を発表しました

NVIDIA と Google Cloud は L4 で主要なワークロードを展開する作業に取り組んでいます

5 つ紹介しましょう

1 つ目 Wombo や Descript などのクラウド サービス向けにジェネレーティブ AI モデルの推論を高速化しています

2 つ目 Triton Inference Server を Google Kubernetes Engine と VertexAI と統合しています

3 つ目 Google Dataproc を NVIDIA Spark-RAPIDS で高速化しています

4 つ目 AlphaFold と大規模言語モデルの UL2 と T5 を高速化しています

5 つ目 NVIDIA は 3D と AR の体験をレンダーする Google Cloud の Immersive Stream を高速化しています

このコラボレーションにより Google GCP はプレミア NVIDIA AI クラウドになります

近日中に NVIDIA のコラボレーションについてさらに詳しくお伝えできることを楽しみにしています

Omniverse、グラフィックス レンダリング、テキストから画像、テキストから動画への変換のようなジェネレーティブ AI 向けに NVIDIA は L40 を発表します

L40 は最も一般的なクラウド推論 GPU である NVIDIA の T4 よりパフォーマンスが最大 10 倍になります

Runway はジェネレーティブ AI の先駆けです

その研究チームは Stable Diffusion とその前身である Latent Diffusion の主要なクリエイターでした

Runway はコンテンツを作成し 編集するためのジェネレーティブ AI モデルを開発しています

AI Magic Tools は 30 を超えており すべてクラウドから配信されるそのサービスはクリエイティブ プロセスの革命を起こしています

こちらをご覧ください

Runway は AI を活用した驚異的な動画編集や画像作成のツールを誰もが利用できるようにしています

ローカルまたはクラウドで実行される最新世代の NVIDIA GPU を搭載した Runway は

ほんの数回の塗りつぶすだけで動画から物体を取り除くことができます

あるいは 入力画像だけを使用し さまざまなスタイルを動画に適用します

あるいは 動画の背景や前景を変更します

従来のツールでは数時間を要したものが プロの放送品質の結果で

わずか数分で完成できるようになりました

Runway でこれを可能にしているのが CV-CUDA です CV-CUDA はオープンソース プロジェクトであり

GPU で高速化する効率性に優れた事前処理パイプラインと事後処理パイプラインをコンピューター ビジョン ワークロード向けに開発し 拡張してクラウドに展開できます

NVIDIA テクノロジと Runway の組み合わせで不可能を可能にし コンテンツ制作者に最高の制作環境を与えます

以前はプロしかできなかったことが誰でも可能になりました

実際 Runway はアカデミー賞にノミネートされたハリウッド映画で使用されており NVIDIA はこのテクノロジを

世界中のクリエイターに届けています

ChatGPT のような大規模言語モデルは重要な新しい推論ワークロードです

GPT モデルはメモリ使用量が多く 計算負荷が高くなります

さらに 推論は大量のスケールアウト型ワークロードであり 標準的な商用サーバーを必要とします

ChatGPT などの大規模言語モデル推論向けに 新しい Hopper GPU (デュアル GPU NVLINK 搭載の PCIE H100) を

発表します新しい H100 には 94GB の HBM3 メモリがあります

H100 はパラメーターが 1,750 億個の GPT-3 を処理できます

また 商用 PCIE サーバーをサポートするため 拡張が簡単です

現在のところ クラウドで ChatGPT を実質的に処理できる唯一の GPU が HGX A100 です

GPT-3 処理の HGX A100 と比較すると 4 組の H100 とデュアル GPU NVLINK の標準サーバーは

最大 10 倍の速さになります

H100 は大規模言語モデルの処理コストを大幅に削減できます

Grace Hopper は NVIDIA の新しいスーパーチップであり 毎秒 900 GB の高速コヒーレント チップ間インターフェイスで

Grace CPU と Hopper GPU を接続します

Grace Hopper は レコメンダー システムや大規模言語モデルのための AI データベースなど

巨大なデータ セットの処理に最適です

現在では CPU と大容量メモリで巨大な組み込みテーブルを格納し クエリを実行し 結果を GPU に転送して推論を行います

Grace-Hopper を使用すると Grace は組み込みテーブルにクエリを実行し 結果を高速のインターフェイスで Hopper に直接転送します

PCIE の 7 倍の速さです

顧客は AI データベースを数桁大きく構築したいと考えています

Grace-Hopper は理想的なエンジンです

これが NVIDIA の推論プラットフォームであり 1 つのアーキテクチャで多様な AI ワークロードに対応し

データセンターの高速化と融通性を最大化します

世界最大級の各種産業でモノが物理的に作られていますが デジタルによる開発が望まれています

Omniverse はデジタルとフィジカルを橋渡しする産業デジタル化のためのプラットフォームです

各種産業はレプリカの現物を作る前に 物理的な製品や工場をデジタルで

設計し 構築し 運用し 最適化できます

デジタル化は効率性とスピードを上げ コストを節約します

Omniverse の用途の 1 つは工場の仮想立ち上げです 工場を実際に建設する前に

機械類をすべてデジタルで統合します

土壇場での予期しない事態、指示の変更、工場の稼働開始の遅延が少なくなります

仮想の工場統合により 世界中の工場で大金を節約できます

半導体業界は 5,000 億ドルを投資し 記録的な 84 の新しい工場を建設しています

2030 年までに自動車メーカーは 300 の工場を建設し 2 億台の電気自動車を製造する予定です

そして電池メーカーはさらに 100 の巨大工場を建設しています

デジタル化は物流も変えています 世界中の無数の倉庫から商品を移動させています

Omniverse を利用し 自律型倉庫を自動化、最適化、計画する Amazon の方法を見てみましょう

Amazon Robotics は大量の移動型産業ロボットを製造し 世界中に配備しています

このロボット群に新しく加わったのが Amazon 初の完全自律型倉庫ロボット Proteus です

Proteus は高度な安全性、認識、ナビゲーション技術を利用して施設内を移動するように設計されています

Omniverse をベースとする NVIDIA Isaac Sim が物理的に正確で写真のようにリアルなシミュレーションを制作し

Proteus の配備を加速する仕組みをご覧ください

Proteus はカメラ、ライダー、超音波センサーなど 複数のセンサーを備え

自律型ソフトウェア システムを支援します

Proteus チームは起点マーカーを読み取り ロボットに地図上の場所を判断させるニューラル ネットワークのパフォーマンスを

改善する必要がありました

ロボットのセンサー入力で駆動する機械学習モデルをトレーニングするには大量かつ適切な種類のデータが必要です

Isaac Sim の Omniverse Replicator を利用することで Amazon Robotics は写真のようにリアルな合成データセットを大量に生成できました

マーカー検出の成功率が 88.6% から 98% に改善されました

Omniverse Replicator によって生成された合成データを使用することで開発時間も数か月から数日に短縮されました

実際のデータのみを使用する場合よりもずっと短い時間でモデルのテストとトレーニングを繰り返すことができます

拡大を続ける Proteus ロボット群の新しい自律機能を実現するため Amazon Robotics は

シミュレーションと現実のギャップを埋める研究と 大規模なマルチセンサー/マルチロボット シミュレーションに取り組んでいます

Amazon Robotics は Omniverse を導入することで 完全な忠実度の倉庫のデジタル ツインで運用を最適化することができます

合成データを生成する場合でも 新しいレベルの自律性を開発する場合でも Omniverse で Isaac Sim を利用し

Proteus を施設全体に配備することで Amazon Robotics チームは時間とコストを節約できます

Omniverse にはデジタル化のための独自のテクノロジがあります

Omniverse は USD を使用する最高の開発プラットフォームです USD は複数のチームが共同で仮想世界やデジタル ツインを制作するときに

共通の言語になります

Omniverse は物理ベースであり 物理法則を反映しています

ロボティクス システムに接続され ハードウェアインザループで動作します

ジェネレーティブ AI を搭載し 仮想世界の制作を加速します

Omniverse は膨大なデータ セットを管理できます

あらゆる分野で Omniverse は大幅にアップデートされています

見てみましょう

約 30 万人のクリエイターとデザイナーが Omniverse をダウンロードしています

Omniverse はツールではなく USD ネットワークと共有データベースであり

業界をまたいで使用されているデザイン ツールに接続されるファブリックです

業界をリードするツールによって作成されたアセットを接続し 構成し シミュレーションします

Omniverse 接続の増加を喜ばしく思います

新しい接続のたびに 1 つのプラットフォームのエコシステムとその他すべてのエコシステムがつながります

各種ネットワークからなる Omniverse のネットワークは飛躍的に増加しています

Bentley Systems LumenRT も接続されました

Siemens Teamcenter、NX、Process Simulate、Rockwell Automation Emulate 3D、Cesium、Unity なども接続されています

3 兆ドルの自動車産業のデジタル化と

自動車メーカーがそのワークフローで Omniverse をどのように評価しているか見てみましょう

Volvo Cars と GM は Omniverse USD Composer を使用してアセット パイプラインを接続し 統一しています

GM は Alias、Siemens NX、Unreal、Maya、3ds Max を使用しているデザイナー、スカルプター、アーティストをつなぎ

仮想世界で構成部品を組み立て 車両のデジタル ツインを作ります

エンジニアリングとシミュレーションでは Omniverse で Powerflow の空気力学を視覚化します

Mercedes-Benz と Jaguar Land Rover の次世代車では エンジニアが Omniverse の Drive Sim を使用して

合成データを使って AI モデルをトレーニングし 仮想 NCAP 運転テストでアクティブセイフティ システムを検証し

実際の運転シナリオをシミュレーションしています

Omniverse のジェネレーティブ AI は 以前に運転した経路を 3D で再構築し

過去の体験を再現したり変更したりできます

BMW は Idealworks と協力して Omniverse で Isaac Sim を使用し 合成データとシナリオを生成し

工場のロボットをトレーニングしています

Lotus は Omniverse を使用して溶接ステーションを仮想的に組み立てています

トヨタ自動車は Omniverse を使用して自社工場のデジタル ツインを構築しています

Mercedes-Benz は Omniverse を使用して新しいモデルの組み立てラインを構築、最適化、計画しています

Rimac と Lucid Motors は Omniverse を使用し 自社の車を忠実に表現する実際のデザイン データからデジタル ストアを構築しています

BMW は Omniverse を使用し 世界中の約 30 の工場で事業を計画しています

新しい EV 工場をすべて Omniverse で構築しています 実際に工場を開くのは 2 年先のことです

訪問してみましょう

世界の産業はデジタル化を加速しており 今後 3 年間で 3 兆 4000 億ドル以上が投資されます

BMW では 自動車のデジタル化において最先端を行くよう努めています

NVIDIA Omniverse と AI を利用することで 新しい工場を今までより短期間で立ち上げ 今までより効率的に生産しています

その結果 コストが大幅に削減されています

すべては計画から始まります 計画とはさまざまなツール、データセット、

世界中の専門家をつなげなければならない複雑なプロセスです

従来であれば さまざまなシステムとツールでデータが別々に管理されていたため 限界がありました

今ではすべてが様変わりしています

独自の Omniverse アプリケーションを開発し 既存のツール、ノウハウ、チームをつなぎ

1 つの画面に全部表示されるようにします

Omniverse はクラウドネイティブであり クラウドに依存しません チームはどこにいても仮想工場で共同作業できます

2025 年にはハンガリーのデブレツェンに新しい EV 工場がオープンします 私はこれからそのプランニング セッションにバーチャルで参加するところです

バーチャルの世界に飛び込みましょう

プランナー 1: ええと Milan が参加します

Milan: こんにちは みなさん

プランナー 1: Milan さん お会いできて光栄です 私たちは車体工場の最適化ループに取り組んでいるところです

ご覧になりますか?

Milan: ありがとう 面白そうですねそれから友人を招待したいのですが

プランナー 1: 構いませんよ

Jensen: やぁ Milan 久しぶり

Milan: Jensen バーチャル版のプランニング セッションにようこそ

Jensen: ここは最高だねこれは何かな?

Milan: グローバル プランニング チームがデブレツェンのデジタル ツインでロボット セルに取り組んでいます

Matthias 状況を教えてください

Matthias: 生産コンセプトに変更が必要なことが判明したところです

レイアウトの構成をやり直し 新しいロボットをセルに追加します

プランナー 2: ロジスティクス側で新しいロボットを追加するとなると ストレージ コンテナーを移動する必要があります

プランナー 3: それでは この新しいロボットを中に入れましょう

Matthias: それはいいでも ダブルチェックしましょう セルを実行できますか?

上出来です

Jensen: Milan 本当に驚きだ

仮想工場の統合はあらゆる産業にとって不可欠です

チームの働きぶりは私の誇りですよくやってくれました

Milan: 私たちはローカルを最適化するべくグローバルに取り組んでいます

プランニングの後は運用が重要 もうすでに始まっています

仮想工場の立ち上げを記念して 初のデジタル工場オープニングに招待します

Jensen: 光栄だねさぁ始めよう

自動車会社は約 1,400 万人を雇用しています

デジタル化により この業界の効率性、生産性、スピードが強化されます

Omniverse は 産業をデジタル化するためにデジタルから物理の橋渡しをするオペレーティング システムです

本日 Omniverse を実行するために設計された 3 つのシステムを発表します

1 つ目 NVIDIA Ada RTX GPU と Intel の最新 CPU を搭載した新世代ワークステーションを発売します

この新しいワークステーションはレイ トレーシング、物理シミュレーション、ニューラル グラフィックス、ジェネレーティブ AI に最適です

3 月以降 Boxx、Dell、HP、Lenovo から発売される予定です

2 つ目 Omniverse 向けに最適化された新しい NVIDIA OVX サーバーです

OVX は L40 Ada RTX サーバー GPU と NVIDIA の新しい BlueField-3 で構成されています

OVX サーバーは Dell、HPE、Quanta、Gigabyte、Lenovo、Supermicro から入手できます

チップ、システム、ネットワーキング、ソフトウェアを含む Omniverse スタックの各層は新しく発明されたものです

Omniverse コンピューターを構築し 運用するには有能な IT チームが必要です

NVIDIA は Omniverse の拡張を簡単にし 臨場感をアップさせる予定です

見てみましょう

世界最大級の産業が競って物理プロセスをデジタル化しています

今のところ それは複雑な作業です

NVIDIA Omniverse Cloud は PaaS (platform-as-a-service) であり 管理された Omniverse Cloud API 、

ワークフロー、NVIDIA OVX で実行されている カスタマイズ可能なアプリケーションに一瞬で安全にアクセスできます

企業でのチームは Web ブラウザー上の Omniverse Launcher か

カスタムビルドの統合を介して一連のマネージド サービスにアクセスします

Omniverse Cloud に入れば 企業チームは仮想世界を組み立てる基礎的なアプリケーションやワークフローに

瞬時にアクセスし、拡張し、公開できます

知覚 AI をトレーニングするデータを生成できます

自動運転車両を試験し 検証できます

自律ロボットをシミュレートできます

共有データにアクセスし Omniverse Nucleus に公開します

デザイナーやエンジニアは RTX ワークステーションでお気に入りのサードパーティのデザイン ツールを使用し

編集内容を Nucleus に同時に公開できます

その後 Omniverse で統合モデルを反復処理か表示する準備ができたら

Web ブラウザーを開いてログインします

プロジェクトやチームの規模が拡大する中 Omniverse Cloud はコストの最適化に役立ちます

コンピューティング リソースやライセンスを必要に応じてプロビジョニングできるためです

また 新しいサービスやアップグレードが自動的にリアルタイム アップデートで提供されます

Omniverse Cloud があれば 企業は統合型のデジタル化とコラボレーションを

主要な産業ワークフローに短期間で導入し コストと無駄を減らし

イノベーションまでの道のりを加速できます

Omniverse でお会いしましょう

本日 完全なマネージド クラウド サービスである NVIDIA Omniverse Cloud を発表します

NVIDIA は Microsoft と業務提携し Omniverse Cloud を世界の産業に導入します

NVIDIA はそれを Azure でホストし ストレージ セキュリティ アプリケーション サービスからなる Microsoft の豊富なポートフォリオを活用します

Teams、OneDrive、SharePoint、Azure IoT Digital Twins といったサービスなど

Microsoft 365 生産性スイートに Omniverse Cloud を接続しています

Microsoft と NVIDIA は 数億人もの Microsoft 365 ユーザーと Azure ユーザーに Omniverse を提供します

アクセラレーテッド コンピューティングと AI の到来です

開発者は高速化とスケールアップに NVIDIA を利用し 以前は不可能だった問題を解決しています

ネット ゼロは非常に困難な挑戦です電力を節約するには あらゆる企業があらゆるワークロードを高速化する必要があります

アクセラレーテッド コンピューティングにはフルスタックでデータセンター規模のコンピューティングが求められる難題です

Grace、Grace-Hopper、BlueField-3 はエネルギー効率に優れたアクセラレーテッド データ センター用の新しいチップです

アクセラレーション ライブラリは新しい課題を解決し 新しい市場を開きます

量子コンピューティングのための cuQuantum、組み合わせ最適化のための cuOpt 計算リソグラフィのための cuLitho など

100 のアクセラレーション ライブラリをアップデートしました

TSMC、ASML、Synopsys と協力して 2 nm の先を目指すことに胸が躍ります

NVIDIA DGX AI スーパーコンピューターは生成大規模言語モデルのブレイクスルーを支えるエンジンです

DGX H100 AI スーパーコンピューターが生産開始しました

世界中で拡大を続ける OEM パートナーとクラウド パートナーから近いうちに販売される予定です

DGX スーパーコンピューターは研究を超え 現代の AI ファクトリーになろうとしています

あらゆる企業がインテリジェンスを製造することになります

Microsoft Azure、Google GCP、Oracle OCI と提携することで NVIDIA DGX Cloud でビジネス モデルを拡張し

あらゆる企業がブラウザーから瞬時に NVIDIA AI を使えるようにします

DGX Cloud は NVIDIA の最高のテクノロジと世界をリードする CSP の最高のテクノロジを顧客に提供します

iPhone のような革命的瞬間が AI に到来しています

ジェネレーティブ AI 推論ワークロードが急増しています

NVIDIA は新しい推論プラットフォームを立ち上げました 4 つの構成に 1 つのアーキテクチャです

AI 動画のための L4

Omniverse とグラフィックス レンダリングのための L40

大規模言語モデル推論をスケールアウトするための H100 PCIE

レコメンダー システムとベクトル データベースのための Grace-Hopper

NVIDIA の推論プラットフォームはデータ センターの高速化と融通性を最大化します

NVIDIA と Google Cloud が連携し 幅広い推論ワークロードを展開しています

このコラボレーションにより Google GCP はプレミア NVIDIA AI クラウドになります

NVIDIA AI Foundations はカスタム言語モデルとジェネレーティブ AI を構築するためのクラウド サービスであり ファウンドリです

NVIDIA AI Foundations は言語、ビジュアル、生物学のモデル作成サービスから構成されています

Getty Images と Shutterstock はカスタムのビジュアル言語モデルを構築しています

NVIDIA は Adobe と提携し 未来の創造性を引き出す次世代の AI 機能を開発しています

Omniverse は 産業をデジタル化するためにデジタルから物理の橋渡しをするオペレーティング システムです

Omniverse はエンドツーエンドのワークフローを統合し 1,400 万人を雇用する 3 兆ドルの自動車産業をデジタル化します

Omniverse がクラウドに展開されています

NVIDIA は Microsoft と業務提携して Omniverse Cloud を Azure にホストし 世界中の産業に提供しています

NVIDIA のシステム、クラウド、ソフトウェア パートナー、研究者、科学者

そして NVIDIA のすばらしい社員に

NVIDIA アクセラレーテッド コンピューティング エコシステムを作り上げてくれていることを感謝します

私たちは共に 不可能を成し遂げるこの世界を支援しています

GTC をお楽しみ下さい