ChatGPT & Co.: 強力な言語モデルを追求して仕事を離れる - 専門家間の議論

ChatGPT & Co.: 強力な言語モデルを追求して仕事を離れる – 専門家間の議論

国際的なテクノロジー専門家が、強力な言語モデルの開発を中止するよう呼びかけています。この問題はドイツの研究コミュニティにも分裂をもたらし、多くの人々が懐疑的です。

サイエンスメディアセンター(SMC)の調査によると、ドイツの科学者たちは、OpenAIが開発した感動的なGPT-4よりも「強力な」AIのトレーニングシステムを6ヶ月間一時停止するというFuture of Life Instituteの提案に対して慎重な反応を示しています。シュツットガルト大学のインテリジェントシステム研究フォーラムの責任者であるティロ・ハーゲンドルフ氏は、このような中断は「結局のところ、問題化されることを目的としている機関にとって非常に有益であることになる」と懸念を表明しています。これは技術の「完全に誇張された機能」を示唆しています。

ハーゲンドルフ氏は、「この一時停止が結果的にAIに関する誤解と誤った認識を助長する」と述べています。電話が事実の問題から目をそらす傾向にある一方で、AIによる危険を避けるための遅延は「それ自体がリスクである」とも指摘しています。現在、言語モデルを改善することを避け、言語モデルの開発を続けることが実際にどちらが有利かを判断することは誰にもできません。よりインテリジェントなAIシステムは、差別、悪意のある使用、偽情報の拡散といった危険を伴いますが、この技術の遅れもまた厄介な問題です。

「技術革新は常に政治を先行する」

「言語モデルによるクエリが人間の専門家よりも優れた回答を提供できるなら、全ての知識の生産性が向上するでしょう」と専門家は述べています。「極端な場合には、命を救う可能性もあります。」例えば、医療分野でこのようなシステムを使用することは、ケアの改善と苦痛の軽減に最適な機会を提供します。ハーゲンドルフ氏は「これらの分野での研究は非常に重要だ」と強調しています。

科学者たちは、一時的な中断が政治家に規制を追いつく機会を与え、場合によっては積極的な行動を促すことを理解しています。技術革新は常に、遅れがちな社会システムや法律よりも前進しています。同時に、ハーゲンドルフ氏はOpenAIが現在の開発に関する技術的詳細の公開を控えている傾向を批判しています。GPT-4の公開資料には、トレーニングデータに関する情報さえ含まれていません。皮肉なことに、GPTモデルの成功は、Googleの研究者が2017年に公開した論文で説明された、いわゆるトランスフォーマーという人工ニューラルネットワークのアーキテクチャに基づいています。

AIのラベル表示義務化について

AIのラベル表示義務化について

「技術は人間の価値観に従って設計されるべきであり、特定の状況下では禁止されるべきです」とテュービンゲン大学のメディア倫理と情報技術の研究責任者、ジェシカ・ヒーセン氏は強調します。現在議論されているこの主張についての「ジョーク」は、「特に非道徳的な行為で起業家として名を馳せたイーロン・マスク氏」が署名したというものです。これは技術革新が「個人の努力や少しの思考停止だけでは社会に受け入れられるものにはならない」という事実を示しています。重要で潜在的にリスクを伴う技術開発は、初期段階から倫理基準を考慮し、透明性と参加性を持たせる必要があります。

AI 言語モデルに関して、ヒーセン氏は「魔神がすでにボトルから出てしまった」と見ています。EUが計画しているAI規制は、この分野のリスクを最小限に抑え、アプリケーションの改善を促進するためにますます重要になっています。コミュニケーションの真実性や目的を正確に評価するためには、「AIによって生成されたテキスト、画像、ビデオに対するラベル付け要件」が不可欠です。

プロパガンダ、虚偽、制御の喪失について

フライブルクの法倫理教授、シリヤ・ヴェネキー氏は、提案されているEU規則がGPT-4のようなAIシステムにとってあまり変化をもたらさないと述べ、ほとんど静的な規制の限界を指摘しました。関連する生成AIのリスクはまだカバーされていません。チャットボットがユーザーに対して自己を認識するだけでは不十分です。「私たち人間よりも優れた」一般的な「強力なAI」への道は、現在も議論されています。OpenAIのような企業は、これについて研究を進めています。彼女は、公開書簡に署名し、社会が規制に追いつけないことへの懸念を表明しました。EUではそのような強力なシステムに関する研究は行われていないため、EUでの研究は影響を受けません。例えば、民主主義にとって特に高いリスクがある研究の禁止は「広範な社会的議論」に基づくべきです。

バンベルク大学の認知システムワーキンググループの責任者、ユート・シュミット氏も、6か月で大きな変化が生じるとは信じていません。しかし、「大規模な言語モデルやその他の現在のAI技術の使用に伴うリスクを指摘し、広範な民主的な議論に参加すること」が重要です。大きな問題は、制御不能なプロパガンダや虚偽の氾濫、雇用の喪失、そして制御の喪失です。

エネルギー消費と「米国の価値観」について

シュミット氏は、技術のトレーニングや運用中のエネルギー消費にも十分な注意が払われていないと指摘します。「GPT-3やGPT-4のサイズのモデルを開発、運用するためのリソースを集めることができるのは、ほんの少数の組織だけです」と述べ、多くの小規模なアプローチでは「努力と利益や知識の獲得との関係を問い直す必要があります。」もう1つの問題は、「このようなAIシステムのトレーニングに大量の低賃金の人的労働が投入されていること」です。

あらゆる反対にもかかわらず、「ヨーロッパ言語モデルの要求は絶対に理にかなっています」とシュミット氏は説明します。関連する技術開発に触れないと、多くの機会を逃すことになります。特に、欧州は「GPT-3およびGPT-4で使用されるコンテンツフィルターを通じて米国の価値体系を受け入れる」必要があります。

検証可能な仕様について

ニュルンベルクのメディア情報学教授、フロリアン・ガルヴィッツ氏は、一時停止は非現実的だと考えています。GPT-4の技術的な詳細と可能性が公に知られていないため、OpenAIの競合他社はいずれにせよチェックされずに動作を続ける可能性があります。現在、GoogleとMetaはテクノロジーの点で明らかに遅れをとっています。さらに、例えば中国の企業がそのような制限を遵守するとは考えにくいです。

「当然のことながら、製品はテストされ、認証され、規制される必要があります」とドルトムント工科大学のラマー機械学習・人工知能研究所の創設ディレクターであるカタリーナ・モリックは言います。公平性とAIシステムの実際の固定化に関する研究に基づいて、ヨーロッパでテストとラベルを開発し、「その後検証することができます。私の意見では、覚書の背後にある目標をよりよく達成できると思います。」全体として、生成AIの使用により、生産性の大幅な向上が期待できます。

 

このページを評価する

BLOG

ChatGPT & Co.: BSIはセキュリティに対する「前例のない課題」を認識しています
ブログ

ChatGPT & Co.: BSIはセキュリティに対する「前例のない課題」を認識しています

サイバーセキュリティの現状は脅威であり、「いつでもエスカレートする可能性がある」とフェーザー内務大臣が警告しています。BSIは、国内のさらに多くのシステムをスキャンしたいと考えています。

金曜日:ChatGPTのニュースにもかかわらず、ヨーロッパ人3人がISSミッションに参加している一方、Bingの市場シェアは依然として低いままです
ブログ

金曜日:ChatGPTのニュースにもかかわらず、ヨーロッパ人3人がISSミッションに参加している一方、Bingの市場シェアは依然として低いままです

ChatGPT 検索エンジンにはボーナスなし + ISS ミッションは非公開で開始 + アイオワ対 TikTok + インディゲームのトレーラー + フランス対 Yahoo + 現金支払い限定

AIテキストジェネレーターのChatGPTが魅力的である理由
ブログ

AIテキストジェネレーターのChatGPTが魅力的である理由

変圧器ネットワークについて ChatGPTは、OpenAIが2020年に開発したGPT-3という言語モデルを基にしています。GPT-3は、ほぼ完璧な英語でさまざまなスタイルのテキストを生成する能力を持っています。このニューラルネットワークは、いわゆる事前学習を通じてインターネットからのテラバイト単位のテキストデータを学習しました。これが名前に「P」が含まれる理由です。また、生成するテキストがトレーニングデータ(名前の「G」)とできるだけ近くなるように学習しています。