ChatGPT & Co.: これが人工知能の限界点です

ChatGPT & Co.: これが人工知能の限界点です

人工知能のブームが生活のあらゆる分野に波及していることは間違いありません。しかし、その限界が何度も明確にされています。

学童がChatGPTに宿題をさせられ、学生には論文が丸ごと書かれ、ドイツの議会の政治家たちは既に人工知能をゴーストライターとして活用しています。これは学校や大学にとっての課題だけでなく、多くの人々がその限界がどこにあるのか疑問に思う原因ともなっています。編集者のジャニナ・カールセンは、自身もその限界を体験しました。

ChatGPTが儀式を書く場合

神学者のヨナス・シンマーラインは、人工知能と礼拝というテーマを研究しており、この点での可能性を探求しています。第38回ドイツ福音教会大会(2023年6月7日から11日、ニュルンベルクとフュルトで開催)で、ドイツ初のAIサービスを利用する機会を得ました。彼は、献身的な要素に関して事前にChatGPT 3に質問しました。そして、人工知能は彼に祈り、説教、序文と結論を書きました。この神学者は、AIによって作成された礼拝の音楽も準備していました。礼拝中にテキストを朗読したのは、画面上で生成された人々でした。したがって、人々がデザインに介入できるのは、プロンプト(例えば、ChatGPTに入力する短いコマンドや質問)を作成するときだけでした。

ChatGPTが儀式を書く場合

ChatGPTがアバターを使ってどれほど上手に説教できるか

私はこれまでの人生で既に様々な教会の礼拝に参加してきましたが、特に子どもの頃に感じた退屈さを思い出します。それゆえに、私はChatGPTがコミュニティ全体を巻き込むことができるかどうかをさらに楽しみにしていました。アバターは、上半身しか表示されないにも関わらず、少なくとも実際の人間に非常によく似ており、口の動きが英語により適していることが分かります。しかし、何よりも、人工知能が話す速度が速すぎるため、話を聞いたり、テキストに従ったりするのが難しい人もいることが心配でした。また、挨拶もかなり冷たく感じました。

説教は説得力に欠け、多くの決まり文句や陳腐な表現を繋ぎ合わせただけで、実際の人物の深みや個性が欠けていました。この意見は、その後の参加者や神学者、技術人類学者、バイエルン州のプロテスタント教会の放送代表、ラインラントのプロテスタント教会の教会評議会やインターネット代表者らとの議論で共有されました。感情の欠如が多くの人に指摘され、アバターの動きのなさも批

判されました。ただし、目を見せるだけで感情を伝えられない牧師もいれば、内容のない長い説明に没頭してしまう人もいることを忘れてはなりません。

これから何を学べるでしょうか?

完全に人工知能に委ねられた教会の礼拝については、現在の可能性の限界が明確にされました。このような場合には、何よりも感情が重要であり、この点で仮想の人々が追いつく必要があります。一方で、既に何が可能になっているか、そして人工知能がそのような目的にも使用できることを知るのは刺激的です。現時点では、ChatGPT & Co.から刺激を受けて、自分自身で祈りや説教を書く方がよいでしょう。結婚式や誕生日のスピーチ、その他の感情的な場にも同じことが言えます。なぜなら、個人的なコメントや感情、ジョークは、単なる短いフレーズの列挙よりも人々に響くからです。

このページを評価する

BLOG

ChatGPT & Co.: BSIはセキュリティに対する「前例のない課題」を認識しています
ブログ

ChatGPT & Co.: BSIはセキュリティに対する「前例のない課題」を認識しています

サイバーセキュリティの現状は脅威であり、「いつでもエスカレートする可能性がある」とフェーザー内務大臣が警告しています。BSIは、国内のさらに多くのシステムをスキャンしたいと考えています。

金曜日:ChatGPTのニュースにもかかわらず、ヨーロッパ人3人がISSミッションに参加している一方、Bingの市場シェアは依然として低いままです
ブログ

金曜日:ChatGPTのニュースにもかかわらず、ヨーロッパ人3人がISSミッションに参加している一方、Bingの市場シェアは依然として低いままです

ChatGPT 検索エンジンにはボーナスなし + ISS ミッションは非公開で開始 + アイオワ対 TikTok + インディゲームのトレーラー + フランス対 Yahoo + 現金支払い限定

AIテキストジェネレーターのChatGPTが魅力的である理由
ブログ

AIテキストジェネレーターのChatGPTが魅力的である理由

変圧器ネットワークについて ChatGPTは、OpenAIが2020年に開発したGPT-3という言語モデルを基にしています。GPT-3は、ほぼ完璧な英語でさまざまなスタイルのテキストを生成する能力を持っています。このニューラルネットワークは、いわゆる事前学習を通じてインターネットからのテラバイト単位のテキストデータを学習しました。これが名前に「P」が含まれる理由です。また、生成するテキストがトレーニングデータ(名前の「G」)とできるだけ近くなるように学習しています。