Nvidiaのボス、Huang氏: 次世代のChatGPTを活用したいと考えています

Nvidiaのボス、Huang氏: 次世代のChatGPTを活用したいと考えています

Nvidiaの社内展示会GTC 2024での記者会見で、同社の代表であるJen-Hsun Huang氏は、「次世代のChatGPTを実現することが我々の任務です」と述べました。Nvidiaからの短信サービスについて質問された際、Huang氏はコメントを避けました。AIスタートアップのGroqは、Nvidiaの新しいBlackwellチップを紹介した後、「まだ速い」と簡潔に述べました。これは、同社のAIチップが、Nvidiaが発表したアクセラレータよりも依然として速いことを意味します。

Huang氏は、この短い声明の背景を完全には理解していないため、信頼できる回答を提供することはできないと説明しました。しかし、彼は問題をチップの問題としてではなく、ソフトウェアの問題として捉えています。Nvidiaの使命は、次世代のChatGPTを可能にすることです。これは、2022年にAI向けのGPTモデルに基づくサービスを発表したときのような、画期的な進歩を意味します。この進歩がまだLlama-7Bに基づいているならば、Huang氏は驚くでしょう。彼は、数十億のパラメータしかない「小さい」バージョンの有名なLarge Language Model(LLM)Llamaについて示唆していました。

パラメータの数は、モデルファミリー内での相対的な品質の尺度であり、必要なメモリサイズを示します。引用されたLlamaのバージョンは、70億のパラメータを持っているため、小さい方です。

ストレージが重要です

ストレージが重要です

生成型AIの基盤は、所謂大規模言語モデルです。これは非常に適切な名称です。大きなサイズのために多くのメモリが必要であり、その使用には、チップ上、サーバーキャビネット全体、またはデータセンター全体にわたって分散しているかどうかに関わらず、関連するコンピューティングユニット間での継続的な通信が必要です。

NvidiaのハイパースケールおよびHPC部門責任者であるIan Buck氏は、労力の最大60%がこの通信、すなわちデータ転送に費やされ、実際の計算時間はわずか40%であると再度説明しました。

この重点は、Nvidiaの現在の取り組みにも見られます。新しいチップの速度向上の大部分は、前世代と比較して個々のステップのデータ量を半分にできるTransformerエンジンによるものです。これにより、必要な精度、すなわち必要なメモリ量を、いわゆる専門家の混合原理で最適化することができます。

Nvidiaは、より高速なチップ間接続、より高速なネットワークスイッチ、そしてより高速かつ大容量のメモリを含む、高価なシリコンの形で

このページを評価する

BLOG

ChatGPT & Co.: BSIはセキュリティに対する「前例のない課題」を認識しています
ブログ

ChatGPT & Co.: BSIはセキュリティに対する「前例のない課題」を認識しています

サイバーセキュリティの現状は脅威であり、「いつでもエスカレートする可能性がある」とフェーザー内務大臣が警告しています。BSIは、国内のさらに多くのシステムをスキャンしたいと考えています。

金曜日:ChatGPTのニュースにもかかわらず、ヨーロッパ人3人がISSミッションに参加している一方、Bingの市場シェアは依然として低いままです
ブログ

金曜日:ChatGPTのニュースにもかかわらず、ヨーロッパ人3人がISSミッションに参加している一方、Bingの市場シェアは依然として低いままです

ChatGPT 検索エンジンにはボーナスなし + ISS ミッションは非公開で開始 + アイオワ対 TikTok + インディゲームのトレーラー + フランス対 Yahoo + 現金支払い限定

AIテキストジェネレーターのChatGPTが魅力的である理由
ブログ

AIテキストジェネレーターのChatGPTが魅力的である理由

変圧器ネットワークについて ChatGPTは、OpenAIが2020年に開発したGPT-3という言語モデルを基にしています。GPT-3は、ほぼ完璧な英語でさまざまなスタイルのテキストを生成する能力を持っています。このニューラルネットワークは、いわゆる事前学習を通じてインターネットからのテラバイト単位のテキストデータを学習しました。これが名前に「P」が含まれる理由です。また、生成するテキストがトレーニングデータ(名前の「G」)とできるだけ近くなるように学習しています。