ChatGPTは文明の侵害ではありません」:パニックにならないでください – 公開書簡に対するコメント

ChatGPTは文明の侵害ではありません」:パニックにならないでください – 公開書簡に対するコメント

大規模AIモデルの開発を一時停止すべきかという問題が、『生命の未来』研究所の公開書簡により議論を呼んでいます。専門家たちはこれを次のように分類しています。

イタリアではChatGPTがブロックされ、ワシントンの政策センターは米国消費者保護局にOpenAIの調査を要請しています。この公開書簡が波紋を広げています。『生命の未来』研究所が発表した声明には、著名人を含む1万人以上の署名者がいます。彼らは「GPT-4よりも強力な」AIモデルの開発を6ヶ月間一時停止することを求めています。この提案を支持する同研究所とその出資者であるイーロン・マスク氏とジャーン・タリン氏は、全員が真剣に考えているわけではないとされています。それでも、提起された疑問は神経を逆なでし、研究コミュニティは意見が分かれています。

深層学習の基礎研究者であり、ジェフリー・ヒントン氏やヤン・ルカン氏と共に2018年のチューリング賞を受賞したカナダのコンピュータ科学者ヨシュア・ベンジオ氏も、この提案に賛同しています。他の潜在的な支持者も公に活動を控えたり、提案の弱点を指摘したりしています。現在、人工知能の潜在的なリスクと危険がメディアで議論されており、これは部分的にデータによって、部分的には(サイエンス)フィクションによって支えられた恐ろしいシナリオに基づいています。

恐怖を煽るのではなく、事実に基づいてAIの使用に関する矛盾した将来予測が広がっています。アルゴリズムによる決定が差別、職の喪失、偽情報の氾濫を引き起こす可能性があり、同時に新しい職種の創出、熟練労働者の不足緩和、教育への容易なアクセス、医療の進歩、気候変動への対策など、重要な進歩が期待されています。専門家たちは、現代のAIがもたらす機会とリスクについて一致した意見を持っていません。

不確実性が明白である中で、AIアライメント研究者のエリーザー・ユドコウスキー氏は、AIデータセンターの予防的破壊とAI互換ハードウェアの使用に対する厳格な管理、つまり予防的封じ込めをタイム誌の論評で求めています。AIの安全性については議論があり、研究の加速が求められています。穏健派はAI開発の現状を客観的に評価しています。

AIの強みと限界について

クリスチャン・カースティング氏にとって、初めての大型モデルには魅力がありました。これらのモデルは、私たち自身を解析し、より深く理解する手助けをする可能性があります。カースティング氏はダルムシュタット工科大学の機械学習およびAIの教授であり、彼が共同設立したAI研究センター、hessian.AIの共同所長でもあります。彼は、GPT-4のような大型モデルの将来のバージョンが追加機能で私たちを驚かせるかもしれないと予想しています。「ほんの数年前であれば、それはSFのように感じられたでしょう。」

実用的なAIアプリケーションが提供する利点は、人々に大きな力を与えるものです。AIの影響を受けていない生活分野はほとんどありません。日常の業務を容易にし、新しい職業を生み出します。カースティング氏は、現代のAIシステムが歌詞や新聞記事の執筆、コンピュータプログラムの作成をサポートし、書かれたテキストを画像で説明し、生産性を向上させ、医療診断を改善し、循環経済と気候保護を強化することができると述べています。

しかし、現在のAIシステムは、スティーブン・ホーキング博士が知能とみなした「新しい状況に適応する」能力には困難を抱えています。通常とは異なる状況では、機械は信頼できず、訓練されたタスクに限定されます。これは、現在の言語モデルが原因と結果を理解していないからです。つまり、「aはbの原因か?」や「あれこれをしたらどうなるか?」といったことが分かりません。AI研究者は、人間と機械の知的行動の法則を探るため、因果関係や論理的推論にますます関心を寄せています。

テクノロジーを理解し、それをより安全にするための取り組み

テクノロジーを理解するだけでなく、それを使用する人々との相互作用も重要です。ケルスティング氏はドイツ倫理評議会のこの評価に賛同しています。データは仮説や理論を含むため、直接的に真実へと繋がるわけではありません。計画されているAI法のような規制は、医学、物理学、化学で知られている自然で必要な措置です。EUがこの分野で先駆的な役割を果たしているという事実は、明らかな利点です。

オックスフォード大学の「技術と規制」の教授であるサンドラ・ワクター氏は、この問題に対して意見が分かれています。彼女は、新しいテクノロジーの責任ある使用に焦点を当てた執筆活動を前向きに捉えています。ただし、大規模AIモデルの開発を中断すべき理由のいくつかについては、彼女には明確ではありません。アルゴリズムによる自動化が職場にもたらす意味については長年議論されています。彼女は、6ヶ月の中断はあまり効果がないと考えている規制の専門家たちに同意しています。

ミュンヘンのルートヴィヒ・マクシミリアン大学で計算言語学の教授を務めるヒンリヒ・シュッツェ氏は、情報・言語処理センターの所長として活動を一時停止しています。中国は応じておらず、大企業による研究は制御されずに進行しています。しかし、シュッツェ氏はより根本的な理由から研究の中断に反対しています。「人類の利益のために、大規模な言語モデルをできるだけ早く科学的に理解する必要があります。しかし、さらなる開発が恣意的であれば、モデルは延期されるでしょう。」

AIのブレイクスルーがもたらすユートピア的展望

AIのブレイクスルーがもたらすユートピア的展望

現在、6か月間の一時停止は、すでに強力なAIシステムを導入している企業にとって利益をもたらすものであるとクリスチャン・カースティング氏は述べています。問題は、AIシステムが現在または将来過剰に知能が高いということではなく、むしろ「愚かすぎる」という点にあります。シュッツェ氏も急ぎ必要があると考えています。そうでなければ、この技術が基本的な倫理原則や民主的価値観を持たない「悪者」に支配されてしまう恐れがあります。カースティング氏によると、AIシステムが独裁政権を支援したり、誤ったニュースを広める可能性があるという事実も大きな問題です。

カースティング氏は、この公開書簡が恐怖を煽るものであると見ており、人間と機械の間の「競争知性」についての議論は仮説に過ぎないと考えています。彼は、AIが生成したコンテンツの透かしや使用されたデータの文書化などの建設的なアイデアを支持しています。AIの利点を活用するには、潜在的な欠点やコストを比較検討し、それらを考慮する必要があります。

ヒンリヒ・シュッツェ氏によれば、非民主的政権や犯罪組織よりも、営利企業であるOpenAI、マイクロソフト、グーグルの方が信頼できるとされます。OpenAIのモデルがこれほど成功しているのは、人種差別や医療情報、政治的発言を厳しく制限する高度な「ガードレール」が存在するためです。ロボット意識などの架空のトピックは、恐らく100年か200年後にのみ意味を成すもので、現在解決すべき問題の見方を曖昧にしています。

サンドラ・ワクターは、この気晴らしに対して批判的です。この書簡は、既存のAIモデルによって引き起こされる偽情報の深刻な問題に触れておらず、AIの偏見への対処方法についても言及していません。また、AIと社会に関する倫理的および政治的問題を扱う既存の取り組みについても触れていません。ここで言及されている研究者たちは、この公開書簡には署名していません。代わりに、オープンソースの大規模AI研究のための公共インフラストラクチャを提唱するオープンソースAI協会LAIONの呼びかけに参加しています。これにより、独立した専門家や社会がフィルターなしで最先端の大規模AIモデルをトレーニングし、GPT-4に代わる独立した代替案が現れる可能性があります。これがもたらすリスクは計り知れません。もし世界の人々が、単一のAPIを通じて個々の独占企業が提供する不透明な商業サービスに依存することになれば、モデルの性質や動作を顧客の知識や入力なしに変更できるようになるでしょう。

「私たちは今、AIへの大規模な投資が必要です」

最近のOpenAIへの200億ドルの投資ラウンドが示すように、米国と中国の顕著な進歩は、公私にわたるAIへの巨額投資の直接的な結果と見られています。ドイツの灯台プロジェクトであるエリス研究所でさえ、桁違いに遅れを取っています。「完全に依存したくなければ、今すぐAIに巨額投資する必要があります」と、フライブルクのアルバート・ルートヴィヒ大学機械学習研究室の長であるフランク・ヒッターは述べています。彼は、OpenAI、Google、Metaなどの「テクノロジー巨人」による強力な言語モデルがプラスにもマイナスにも破壊的な結果をもたらすと指摘しています。

最新の研究によると、ほぼすべての職業領域で、今存在する仕事の約半数がAIの使用による合理化の犠牲になる可能性があります。一部の分野では雇用の80〜90パーセントが失われるかもしれません。これは社会が容易に受け入れるには「燃え上がっている」仕事が多すぎると、ボンの大手継続教育機関BWAの専務理事が警告しています。BWAのマネージングディレクター、ハラルド・ミュラー氏は、事務員や日常的なコンピュータ作業のほとんどがアルゴリズムに置き換わると確信しています。ボン・ビジネス・アカデミーがウェブサイトのブログエントリで強調しているように、差し迫った大変動は歴史的な規模に達する可能性があり、それに対処するのは困難な時期になるでしょう。

文明の発展に合わせたChatGPT

このような懸念は技術哲学者アーミン・グルンヴァルドにはよく知られています。1970年代以来、終末的な恐怖と過剰な期待が波状的に現れています。したがって、彼はChatGPTを取り巻く現在の興奮を冷静に見ており、それは現象の最新の表現に過ぎません。制御の喪失、アルゴリズムによる権力の乗っ取り、おそらく機械による世界支配、労働市場の崩壊、技術システムによる人々の操作、抑圧、搾取は、物語の中で繰り返される要素であり、常に似たものです。

グルンヴァルドはカールスルーエ工科大学(KIT)の技術評価とシステム分析の教授であり、最近ドイツ倫理評議会のメンバーになりました。視点によっては、今日のAI技術が人間の能力をどれほどうまくシミュレートできるかは、魅力的でもあり、恐ろしいことでもあります。ChatGPTは産業革命以来の文明の発展と完全に一致しています。グルンワルド氏によれば、このようなシステムが人間よりも優れた文章を書く場合にも同様のことが起こるでしょう。「テクノロジーは特定の点で人間よりも優れているため、それは文明の侵害にはならないでしょう。そうでなければ、我々はそれを必要としないでしょう。」コンピュータプログラムは30年近く前から存在しており、何年も前に人間よりも上手にチェスができるようになったのは、この道への一歩でしたが、大惨事ではありませんでした。

権力集中に対する懸念:独占企業への影響

グルンワルド氏は、権力と所有構造に批判的であり、AIとデジタル化に関する研究の大部分が民間企業、特に米国と中国の大規模データ企業に集中していることを指摘しています。この観点は、スタンフォード人間中心AI研究所(スタンフォードHAI)が発表したばかりのAIインデックスレポート2023によっても裏付けられており、同レポートは米国と中国への研究と資本の集中が世界的な混乱を引き起こす可能性を警告しています。独占企業の少数の経営者や億万長者が、公の議論や発言権なしに私たちの未来を形作るという事実は、大きな問題です。

グルンワルド氏は、アルゴリズムに対するコントロールの喪失が真の問題ではないと述べています。アルゴリズムやコンピュータプログラムには権力を行使する意図や本能がないため、これは無意味な懸念だと彼は言います。「しかし、これらを作成する者は多くの力を持っています」と技術哲学者は警告しています。現在のAI開発における問題は、アルゴリズムが権力を失うことではなく、むしろ未来社会において権力が少数の手に不透明に集中していることです。グルンワルド氏は、「もちろん、AIの将来の開発には、将来を見据えた検討、影響研究、倫理が必要です。しかし、権力構造に何も変化がなければ、これらの取り組みは効果がないままです」と指摘しています。

世間知らずにならないでください: 今何をすべきか

ドイツ倫理評議会の元議長である組織神学と倫理学の教授、ピーター・ダブロック氏は、この公開書簡を冷静に受け止めています。文字通り真剣に受け取ることはできないと彼は言います。大規模な言語モデルのすべてのプログラマーが6ヶ月間ラップトップを閉じ、米国、ヨーロッパ、中国、ロシアの政治家が拘束力のある規則について議論するためにテーブルに着くと考えるほど、世間知らずな人はいないでしょう。国際法から国内法までを検討し、今後数年間のことを決定します。ダブロック氏は、モラトリアム要求を「パフォーマンス的な言論行為」と表現し、全面的に支持しています。

「読み書きや一次情報処理などの基本的な文化技術は間もなく根本的に変化するでしょう」そして、文字、画像、ビデオ、音声を介した検証の難しい誤った情報や半真実の「悪意のある洪水」によって、私たちの概念はプレッシャーの下での真実と現実に置き換わるでしょう。ダブロック氏は、科学と民主主義が最も深刻な危機に直面しており、社会的結束を維持するために自己決定権を直ちに強化する必要があると述べ、「モデルは時代の区切りを表しており、私たちはこの大きな転換点を批判的に形作る方法を直ちに学ばなければならない」と述べました。そしてそれは建設的でなければなりません。

 

このページを評価する

BLOG

ChatGPT & Co.: BSIはセキュリティに対する「前例のない課題」を認識しています
ブログ

ChatGPT & Co.: BSIはセキュリティに対する「前例のない課題」を認識しています

サイバーセキュリティの現状は脅威であり、「いつでもエスカレートする可能性がある」とフェーザー内務大臣が警告しています。BSIは、国内のさらに多くのシステムをスキャンしたいと考えています。

金曜日:ChatGPTのニュースにもかかわらず、ヨーロッパ人3人がISSミッションに参加している一方、Bingの市場シェアは依然として低いままです
ブログ

金曜日:ChatGPTのニュースにもかかわらず、ヨーロッパ人3人がISSミッションに参加している一方、Bingの市場シェアは依然として低いままです

ChatGPT 検索エンジンにはボーナスなし + ISS ミッションは非公開で開始 + アイオワ対 TikTok + インディゲームのトレーラー + フランス対 Yahoo + 現金支払い限定

AIテキストジェネレーターのChatGPTが魅力的である理由
ブログ

AIテキストジェネレーターのChatGPTが魅力的である理由

変圧器ネットワークについて ChatGPTは、OpenAIが2020年に開発したGPT-3という言語モデルを基にしています。GPT-3は、ほぼ完璧な英語でさまざまなスタイルのテキストを生成する能力を持っています。このニューラルネットワークは、いわゆる事前学習を通じてインターネットからのテラバイト単位のテキストデータを学習しました。これが名前に「P」が含まれる理由です。また、生成するテキストがトレーニングデータ(名前の「G」)とできるだけ近くなるように学習しています。