人工知能:ChatGPTの次には何が来るのでしょうか?

人工知能:ChatGPTの次には何が来るのでしょうか?

汎用人工知能(AGI)という用語を巡っては多くの論争があります。しかし、その議論を超えて、ChatGPTを超えるAIに関する興味深い研究が存在します。

何十年もの間、計画、約束、発表が続いてきました。その目標は、人間と同等か、それ以上に思考できるマシンを作ることです。2022年末以降、技術開発は劇的に加速しているようです。今、汎用人工知能であるAGIが手の届くところにあるかのように思われます。最新のレポートでは、MIT Technology Reviewが開発状況を評価しようとしています。

しかし、AGIが正確にどのようなものであるべきかは明確に定義されていません。AI研究者のShane Legg氏とBen Goertzel氏が2000年代初頭にAGIという用語を普及させたとき、彼らはAIには「人間が解決できる様々な認知タスクを実行できる必要がある」とやや漠然と記述しました。彼らはそれがどのような人々であり、どのような種類のタスクを意味するのかをさらに説明しませんでした。現在、Goertzel氏はイベントプラットフォームSingularity.netで難解な未来ビジョンを提供しています。Shane LeggはDeepMindを共同設立し、現在はGoogleの子会社で「チーフAGIサイエンティスト」として勤務しています。彼は7人の同僚と共に、定義と基準に関する終わりなき議論を前進させることを目的とした論文を2023年11月に発表しました。その中で、Legg氏と彼のチームは、この用語の9つの異なる定義を列挙しています。

AGIはすでに存在しているのでしょうか、それともまだ存在していないのでしょうか?

現時点で確実なことは一つだけです。それは、コミュニティがこの問題について意見が分かれているということです。例えば、Google ResearchのBlaise Agüera y Arcas氏とスタンフォード大学のPeter Norvig氏は、2023年にはAGIが「すでに存在している」とジャーナルNoemaに寄せたエッセイで述べています。大規模な言語モデルは、様々なタスクを解決し、コンテキストとほんの数例から新しいスキルを学ぶことができます。これはどちらも人間のような知能を必要とします。

一方で、認知科学者のGary Marcusや計算言語学者のEmily BenderのようなAI評論家は、大規模な言語モデルはパンと同じくらい愚かだと主張しています。これらは純粋に統計的に機能し、処理している言語を全く理解していません。内部世界モデルの痕跡はありません。

また、サンタフェ研究所のAI専門家で複雑性科学者のMelanie Mitchell氏は、これを知る方法はないと主張しています。これらのモデルには少なくとも「ある程度の理解」が存在し、「特定の状況では」既存の知識を新しい状況に適用できるが、「他の場合は適用できない」と述べています。私たちはモデルの内部機能について十分に理解していないため、現時点でこの質問に意味のある答えを出すことはほとんどできません。

政治的アジェンダ

政治的アジェンダ

そして、シリコンバレーの大企業のAI計画に対する最も著名な批評家の一人であるTimnit Gebru氏は、このプロジェクトの背後には技術的な目的ではなく、政治的な目的があるのではないかと疑っています。Emil P. Torresなどの他の著者と共に、Gebruは、アメリカの優生学者からトランスヒューマニストへ、そしてOpenAIの指導的精神へと続く歴史的な線を引いています。OpenAIは決して全人類の未来や幸福についてのものではなく、むしろ余計なものをすべて整理することについてのものでした。

現在のAIシステムが間違いなく欠けているのは、独立して学習する能力です。しかし、これに関しては非常に興味深い研究があります。

アイスランドのAI研究者Kristinn Thórisson氏は、AGIを30年間研究しており、完全に自律的なAIエージェントを開発することを目指しています。学習自体に関する基本的な知識から始め、時間が経つにつれて自らのプログラミングを変えていきます。彼のモデルは子供の学習です。2008年に、Thórissonと彼のチームは、これらの

機能のデモンストレーションであるAutocatalytic Endogenous Reflective Architecture (AERA)を開発しました。

これは「高度な操作自律性を備えたエージェントを構築するための認知アーキテクチャ」であり、「設計者が指定したわずかなコード、つまりシード」から始めて、自らのプログラミングを修正します。彼は現在、新たな研究資金を利用してモデルをさらに発展させたいと考えています。

自律エージェントが未知のレシピを開発

ボルドー大学のピエール・イヴ・オーデイヤー氏は、「継続的かつ自発的に」学習するこのような「発達型AI」を「オートテリック」と呼んでいます。これは自分自身に意味を与えるという意味です。しかし、彼の目標はAGIではありません。オーデイヤー氏と彼のチームは、学習のモデリングにより興味を持っています。研究者たちはオートテリックソフトウェアエージェントを大規模な言語モデルと結合しました。チームは、いくつかの食品、家具、ツールに加えて、いくつかの短いレシピを含む仮想料理本も含まれる仮想キッチンへの環境を独立して探索できるソフトウェアエージェントをリリースしました。実際、エージェントは大規模な言語モデルと組み合わせて、時間をかけて学習したことを組み合わせたり再配置したりすることで、これまで知られていなかった新しいレシピを開発することができました。しかし、研究者たちは、現在、大規模な商用言語モデルの使用はコストが高すぎる上、モデルが不透明すぎて大規模な実験ができないと不満を抱いています。

「地球外生命体であれ、超知能機械であれ、これまで見たことのないもの、あるいは存在すらしないかもしれないものについて予測するには、一般原則に基づいた理論が必要です」とメラニー・ミッチェルはサイエンス誌への最近のゲスト投稿で書いています。「最終的には、『AGI』の意味と結果は、メディアの議論や裁判、あるいは私たちの直観や推測によってではなく、これらの原則の長期的な科学的探求によって解決されるでしょう。」

BLOG

ChatGPT & Co.: BSIはセキュリティに対する「前例のない課題」を認識しています
ブログ

ChatGPT & Co.: BSIはセキュリティに対する「前例のない課題」を認識しています

サイバーセキュリティの現状は脅威であり、「いつでもエスカレートする可能性がある」とフェーザー内務大臣が警告しています。BSIは、国内のさらに多くのシステムをスキャンしたいと考えています。

金曜日:ChatGPTのニュースにもかかわらず、ヨーロッパ人3人がISSミッションに参加している一方、Bingの市場シェアは依然として低いままです
ブログ

金曜日:ChatGPTのニュースにもかかわらず、ヨーロッパ人3人がISSミッションに参加している一方、Bingの市場シェアは依然として低いままです

ChatGPT 検索エンジンにはボーナスなし + ISS ミッションは非公開で開始 + アイオワ対 TikTok + インディゲームのトレーラー + フランス対 Yahoo + 現金支払い限定

AIテキストジェネレーターのChatGPTが魅力的である理由
ブログ

AIテキストジェネレーターのChatGPTが魅力的である理由

変圧器ネットワークについて ChatGPTは、OpenAIが2020年に開発したGPT-3という言語モデルを基にしています。GPT-3は、ほぼ完璧な英語でさまざまなスタイルのテキストを生成する能力を持っています。このニューラルネットワークは、いわゆる事前学習を通じてインターネットからのテラバイト単位のテキストデータを学習しました。これが名前に「P」が含まれる理由です。また、生成するテキストがトレーニングデータ(名前の「G」)とできるだけ近くなるように学習しています。