ChatGPTメモリ機能:OpenAIが非常に大胆になりました

ChatGPTメモリ機能:OpenAIが非常に大胆になりました

記憶機能が発表されたことにより、ChatGPTは将来、ユーザーの個人情報を記憶してより役立つ回答を提供します。ハイライト: この「リマインダー」はすべてのチャットセッションにわたって持続するため、同じ情報をモデルに何度も提供する必要がありません。もちろん、これはパーソナライズされた広告の論理的な延長であり、データ保護の観点からは、それ以上ではないにしても、少なくとも同等に悪いものです。

しかし、チャットボットは健康データや同様の機密情報を自動的に保存すべきではありません。現在、これに適したフィルターの開発に取り組んでいます。しかし、ユーザーの要求に応じて、そのようなデータをOpenAIのシステムに保存することが可能です。もちろん、これらすべてはAIトレーニングに流れ込みますが、その詳細は後述します。以前は、ユーザーが必要に応じてチャットボットに個人情報を入力し、マシンの出力をより個人的に調整できました。考えさせられるツールチップは、すでに多くの人々を悩ませています。

これは技術的にどのように機能するのでしょうか?

技術的には、記憶機能はメモリとは異なり、おそらく、一般的に言われるRAM(ランダムアクセスメモリ)とは異なります。ChatGPTのような言語モデルは、テキストを多次元ベクトルに変換して言語を数学的に表現します。AI環境では、これをエンベディングと呼びます。一般的な方法は、これらのベクトル間のベクトル空間内の角度を比較することです。角度が小さいほど、ベクトル内のテキストの類似性が高いことを意味します。このシステムは個人情報から独自の単語ベクトルを作成し、それによって特定の用語や主題領域の統計的近接性を高めます。たとえば、2023年のiX特別号では、これがどのように機能するかについて詳しく説明されています。

私が呼んだデータタコは…

この機能の恐ろしさは、記憶例を示したスクリーンショットを見ることから始まります。自分の子供の名前や年齢、子供たちの興味、自分自身の個人的な好み、人気の休暇先など、これらはすべて会社に保存されるべきではありません。はい、Googleにはすでにありますが、私たちは今、より賢くなり、OpenAIとその後援者であるMicrosoftに物事を投げ入れないようにすべきです。

インターネットは忘れないことが証明されているからです。そして、ChatGPTももうその必要はありません。そのような入力はすでにOpenAIのモデルトレーニングに組み込まれていますが、記

憶を通じて全てが統合されて、さらに美しい個人プロファイルが形成されます。Google広告プロファイルとのリンクも可能です。トレーニングと広告のプロファイルは確かに十分に匿名化されているでしょう。しかし、OpenAIは将来的に自社のトレーニングデータの開示を避けるために、そのような機密データを使用し続けることができます。これは、AI法がそのようなシステムに要求する透明性とはまったく異なります。

ITプロフェッショナルにとっての問題は、一般ユーザーにとっては災害です

もちろん、セキュリティとデータ保護の観点からすると、リスクははるかに大きくなります。一方で、AIシステムは依然として完全に老朽化しており、攻撃に対して脆弱です。研究者たちは最近、単語の反復トリックを使用して、ChatGPTからトレーニングデータと個人情報を大量に抽出することに成功しました。未知で予測不可能な攻撃ベクトルが多すぎますが、現在はそのすべてが人の手によって修復されていますが、それはエクスプロイトが成功した後のみです。ChatGPTは、ITがこれまでに経験した最大のオープンハート手術です。企業顧客のデータがトレーニングに混同されないという事実は、賜物です。

システム側とは別に、ユーザー側も当然あります。このような非常に個人的な情報のおいしい収集により、データ漏洩のリスクがさらに深刻になります。さらに、革新的なGPTにはメモリ機能も装備できます。これを使用したい場合は、もちろん自分で機能を有効にする必要があります。ダークパターンからこんにちは。ChatGPTは、ディープフェイクの有無にかかわらず詐欺を狙う犯罪者にとって、さらに魅力的なターゲットになりつつあります。ここで影響を受けるのは、十分に保護された専門のユーザーではなく、いつものように、利便性のために注意を払わずにパスワードを使い回し、一般的に十分な情報を持っていない一般ユーザーです。つまり、ITの食物連鎖で最も弱い立場にある人々です。

ITプロフェッショナルには義務があります。

最善の結果: データ保護には必然的に矛盾が必要です

もちろん、自分自身のデータを保護することはいつでも可能であり、OpenAIは制御を約束します。ユーザーは、少なくともそれほどネストされていないメニューを参照し、メモリ機能に異議を唱えることができます。これにより、経験の少ない平均的なユーザーとスキルのあるユーザーとの間のスキルギャップがさらに悪化します。新しいアプ

リのメニューを最初に調べてデータ保護オプションを確認する経験の浅いユーザーは、どれほどいるでしょうか?

ITプロフェッショナルには義務があります。

新しいアプリやシステムの高いスループットにより、私たちはしばしば行き詰まることがあります。しかし、中にはテクノロジーをより深く理解したい、または理解する必要があると考えている人もいます。しかし、私たちの友人や家族は便利さを求め、無知のままです。そのような人々は、データ漏洩、パスワードスプレー攻撃、詐欺により脆弱になります。確かに、これはある意味で自己責任ですが、それでも専門家としての私たちの責任は一層重大です。なぜなら、この機能を使わないように友人に助言するか、少なくともリスクを認識させることは、IT専門家であれ、データ保護に関心を持つ一般人であれ、私たちオタクの責務だからです。

このページを評価する

BLOG

ChatGPT & Co.: BSIはセキュリティに対する「前例のない課題」を認識しています
ブログ

ChatGPT & Co.: BSIはセキュリティに対する「前例のない課題」を認識しています

サイバーセキュリティの現状は脅威であり、「いつでもエスカレートする可能性がある」とフェーザー内務大臣が警告しています。BSIは、国内のさらに多くのシステムをスキャンしたいと考えています。

金曜日:ChatGPTのニュースにもかかわらず、ヨーロッパ人3人がISSミッションに参加している一方、Bingの市場シェアは依然として低いままです
ブログ

金曜日:ChatGPTのニュースにもかかわらず、ヨーロッパ人3人がISSミッションに参加している一方、Bingの市場シェアは依然として低いままです

ChatGPT 検索エンジンにはボーナスなし + ISS ミッションは非公開で開始 + アイオワ対 TikTok + インディゲームのトレーラー + フランス対 Yahoo + 現金支払い限定

AIテキストジェネレーターのChatGPTが魅力的である理由
ブログ

AIテキストジェネレーターのChatGPTが魅力的である理由

変圧器ネットワークについて ChatGPTは、OpenAIが2020年に開発したGPT-3という言語モデルを基にしています。GPT-3は、ほぼ完璧な英語でさまざまなスタイルのテキストを生成する能力を持っています。このニューラルネットワークは、いわゆる事前学習を通じてインターネットからのテラバイト単位のテキストデータを学習しました。これが名前に「P」が含まれる理由です。また、生成するテキストがトレーニングデータ(名前の「G」)とできるだけ近くなるように学習しています。