Google、より強力なAIモデルGemini 1.5を導入

Google、より強力なAIモデルGemini 1.5を導入

AIコンペティションで追いつくとなると、Googleはペースを上げています。Gemini 1.0の公式発表から1週間後、同社は既にその後継者を紹介しています。

Googleは、2022年末にChatGPTの公開以来、パニックモードになっています。米国の企業は、競合他社のAIリリースに備えておらず、まだChatGPTに対抗できていませんでした。それ以来、同社のAI発表は一貫性を欠き、時にはやや偶発的に見えることもあります。最近では、GoogleがBardという新しい名前からGeminiに変更したため、最終顧客に混乱を招きました。2024年2月初旬に、GoogleはGemini 1.0で最終的に社内AIサービスを公開しましたが、多くのユーザーの期待には及ばないものでした。完全な発表にもかかわらず、Geminiは多くの面でChatに劣っていることが証明されました。Googleは再び急いでいます – そしてGemini 1.1ではなく、Gemini 1.5を発表しています。

Gemini 1.5は大きな飛躍をもたらします

このサービスがモデルを提供していれば、恐らくバージョン番号2.0を獲得していたでしょう。Gemini 1.5は、Proバリアントのプレビューバージョンとして加入者が利用できるようになりました。Gemini 1.0 Ultraの最も高価なサブスクリプションモデルと同じくらい強力である必要がありますが、より少ないコンピューティング能力を要求します。Googleによると、Gemini 1.5 Proは新しい記録を樹立しています。製造元によると、AIモデルは、最大100万のいわゆるトークン、つまり単語、画像、コード、ビデオ、サウンドなどの情報コンポーネントを処理できます。オリエンテーションのために:Gemini 1.0はわずか32,000トークンを処理しますが、最も強力なAIモデルであるGPT-4ターボとClaude 2.1はそれぞれ128,000または200,000トークンを処理します。したがって、Gemini 1.5 Proは、AI業界全体にとって大きな飛躍を表しています。

Gemini 1.5は大きな飛躍をもたらします

AIは映画全体や本を処理できます

実際には、これはたとえばGoogleの新しいAIが、最大700,000語の単語やプログラムコードで最大30,000行の順序で対応する問い合わせを理解し、分析することができることを意味します。KIマルチモーダル作品です。これは、写真、ビデオ、オーディオ、テキスト、プログラムコードの組み合わせを処理して接続を作成できることを意味します。最大100万のトークンの処理は、最初はAIスタジオおよびAIプラットフォームを通じて、選ばれた開発者と企業のみが利用できます。通常のユーザーには128,000のトークンのコンテンツが提供され

ます。これは、おそらく多くのトークンを含む問い合わせに対して高すぎる負荷であるためです。Googleは、最大1,000万トークンのコンテキスト分析を内部で実験しています。Gemini 1.5が広く完全に利用可能になる時期、およびAIがGoogleが発表するほど強力であるかどうかはまだ不明です。

このページを評価する

BLOG

ChatGPT & Co.: BSIはセキュリティに対する「前例のない課題」を認識しています
ブログ

ChatGPT & Co.: BSIはセキュリティに対する「前例のない課題」を認識しています

サイバーセキュリティの現状は脅威であり、「いつでもエスカレートする可能性がある」とフェーザー内務大臣が警告しています。BSIは、国内のさらに多くのシステムをスキャンしたいと考えています。

金曜日:ChatGPTのニュースにもかかわらず、ヨーロッパ人3人がISSミッションに参加している一方、Bingの市場シェアは依然として低いままです
ブログ

金曜日:ChatGPTのニュースにもかかわらず、ヨーロッパ人3人がISSミッションに参加している一方、Bingの市場シェアは依然として低いままです

ChatGPT 検索エンジンにはボーナスなし + ISS ミッションは非公開で開始 + アイオワ対 TikTok + インディゲームのトレーラー + フランス対 Yahoo + 現金支払い限定

AIテキストジェネレーターのChatGPTが魅力的である理由
ブログ

AIテキストジェネレーターのChatGPTが魅力的である理由

変圧器ネットワークについて ChatGPTは、OpenAIが2020年に開発したGPT-3という言語モデルを基にしています。GPT-3は、ほぼ完璧な英語でさまざまなスタイルのテキストを生成する能力を持っています。このニューラルネットワークは、いわゆる事前学習を通じてインターネットからのテラバイト単位のテキストデータを学習しました。これが名前に「P」が含まれる理由です。また、生成するテキストがトレーニングデータ(名前の「G」)とできるだけ近くなるように学習しています。