ザ・シムズ」モデル:ChatGPTが仮想都市で自律エージェントを操作する

ザ・シムズ」モデル:ChatGPTが仮想都市で自律エージェントを操作する

シムたちとChatGPTを組み合わせるとどうなるでしょうか?スタンフォード大学とGoogleの研究グループがそれを試みました。

Googleとスタンフォード大学の研究者たちは、ChatGPTを使用してシミュレートされた環境での単純な自律ソフトウェアエージェントのコミュニケーションと行動を制御しました。研究者たちによると、「Smallville」と呼ばれる仮想コミュニティで「生活」し「働く」25人のソフトウェアエージェントは、現実的な人間の行動を示すだけでなく、緊急の社会的相互作用も示しました。あるエージェントに与えられたバレンタインデーのパーティを祝う計画では、他のエージェントに招待状を送り、事前にパーティが行われる部屋の装飾をするなどしていましたが、時間がなかったために助けも求められました。

「生成されたエージェントは起床し、朝食を作り、仕事に行きます。アーティストは作家が書く間に絵を描きます。意見を形成し、互いに気付き、会話を始めます。過ぎ去った日々を振り返りながら、次の日の計画に取り組みます」と研究者たちは述べています。彼らの研究論文にはこの内容が記載されており、デモンストレーションも用意されています。

ただし、これらのソフトウェアエージェントが実際にこれらすべてのアクションを実行するわけではありません。むしろ、これらのアクションはテキストとして出力され、Smallvilleの各場所の説明と同様に他のエージェントへの入力として機能します。この言語モデルは、テキストベースのロールプレイングゲームのように様々な役割を演じ、25人のエージェントのアクションを並行して実行します。

ソフトウェアエージェントの新たな動作

ソフトウェアエージェントの新たな動作

これには、エージェントの行動範囲が驚くほど多様であるという利点があります。モデル環境での動作のシミュレーションは新しいことではありませんが、例えばアメリカの科学者たちはオピオイド危機への政策対応を試すためにマルチエージェントシステムを使用していますが、そのようなシミュレーションではソフトウェアエージェントが通常、単純なif-thenルールに基づいて動作します。したがって、彼らの行動の範囲は非常に限定されています。過去には「認知アーキテクチャ」を持ち、新しい行動を学習し進化させることができるエージェントの例が示されていますが、彼らのスキルは敵を撃つことに限られており、コミュニケーションや協力は彼らにとって非常に複雑です。

言語モデルは、特にコミュニケーションにおいて、さらに多くのことができます。しかし、Joon Sung Park氏と彼の同僚が直面した問題の一つは、言語モデルの「コンテキストの長さ」が限られていることです。入力プロンプトには、エージェントの仮想位置、履歴、および考えられる目標に関する情報が含まれており、最大長は2,048トークンで、これは約6,000ワードに相当します。エージェントが一貫して動作するため、研究者たちは言語モデルを各エージェントの「メモリストリーム」を含むデータベースにリンクしました。

一方で、ファイルはエージェントの「観察」で構成されており—私はどこにいるのか、この場所にある物体の状態はどうか、何をしているのか—といった内容がタイムスタンプ付きで記録されています。メモリストリームには、計画やプロジェクトだけでなく、イベントや相互作用のより抽象的な要約も含まれています。著者たちはまた、ChatGPTに抽象的な概要と計画の両方を生成させています。各アクションの前に、クエリモジュールはメモリストリームから最新の関連エントリを検索し、それを利用して次の入力プロンプトのコンテキストを作成します。

エージェント間の相互作用

ある種の知能がソフトウェアエージェントに起因することは比較的明らかです。しかし、大規模な言語モデルを計画モジュールなどの外部ソフトウェアとリンクさせて「自律化」するようなシステムが注目を集めているにもかかわらず、論文の著者たちはその道を選びませんでした。大規模な言語モデルがテキストを補完するだけでなく、論理的な結論を導き出したり、計画を立てたり、他のエージェントや人々の目標や意図を推測する能力について、現在激しい議論があります。原則的に、それらは「単なる」テキストの補足に過ぎません。実際、ChatGPTのような大規模言語モデルは、この種のタスクを架空のシナリオの形で何度も解決できます。純粋に実用的な観点から見ると、このシステムは実際に機能します。

研究論文では、研究者たちはエージェント間の相互作用のみから生じる3つの「緊急行動」を挙げています。それは、「情報拡散」—エージェントが適切な時に情報を伝えること、複数のエージェント間での行動の調整、そして新しい関係の形成です。興味深いことに、研究者たちはシミュレーションの実行中に個々のエージェントに繰り返し「インタビュー」を行うことで、これを直接確認することができました。

ただし、コンピュータゲームでエージェントを使用する場合、システムが遅すぎ、計算負荷が高すぎるため、研究者たちはこのソフトウェアをオンラインコミュニティの設計などに使用することを提案しています。なぜなら、このソフトウェアは特定のルールや行動の影響をテストするのに適しているからです。それにもかかわらず、このシステムは大規模な言語モデルが直面する根本的な問題にも対処する必要があります。つまり、システムが安定して動作するかどうかは未知数です。これまでに、研究者たちは仮想の2日間にわたってシミュレーションを実行しましたが、言語モデルが幻覚を起こしたり、言語的に制御不能になるリスクは否定できず、その場合、個々のエージェントは他のエージェントとの対話が不可能になります。

このページを評価する

BLOG

ChatGPT & Co.: BSIはセキュリティに対する「前例のない課題」を認識しています
ブログ

ChatGPT & Co.: BSIはセキュリティに対する「前例のない課題」を認識しています

サイバーセキュリティの現状は脅威であり、「いつでもエスカレートする可能性がある」とフェーザー内務大臣が警告しています。BSIは、国内のさらに多くのシステムをスキャンしたいと考えています。

金曜日:ChatGPTのニュースにもかかわらず、ヨーロッパ人3人がISSミッションに参加している一方、Bingの市場シェアは依然として低いままです
ブログ

金曜日:ChatGPTのニュースにもかかわらず、ヨーロッパ人3人がISSミッションに参加している一方、Bingの市場シェアは依然として低いままです

ChatGPT 検索エンジンにはボーナスなし + ISS ミッションは非公開で開始 + アイオワ対 TikTok + インディゲームのトレーラー + フランス対 Yahoo + 現金支払い限定

AIテキストジェネレーターのChatGPTが魅力的である理由
ブログ

AIテキストジェネレーターのChatGPTが魅力的である理由

変圧器ネットワークについて ChatGPTは、OpenAIが2020年に開発したGPT-3という言語モデルを基にしています。GPT-3は、ほぼ完璧な英語でさまざまなスタイルのテキストを生成する能力を持っています。このニューラルネットワークは、いわゆる事前学習を通じてインターネットからのテラバイト単位のテキストデータを学習しました。これが名前に「P」が含まれる理由です。また、生成するテキストがトレーニングデータ(名前の「G」)とできるだけ近くなるように学習しています。