ChatGPT の開発者は、会話ごとに個人情報を保存することでユーザー エクスペリエンスを向上させるためにこのメモリ ツールを考案しました。しかし、多くの機会と同様に、このツールにもリスクが伴います。セキュリティ専門家は最近、ハッカーが ChatGPT に偽のメモリを挿入して、ユーザーをデータ盗難の危険にさらすことができる手法を発見しました。
この問題は ChatGPT MacOS アプリケーションにあり、敵対者がプロンプトを挿入して AI がユーザーについて記憶している内容を変更できる。その結果、情報は保存され、後でハッカーのサーバーに送られる。この問題は深刻に思えるが、OpenAI がユーザーを保護するために講じたいくつかの措置のおかげで、最初に思ったほど恐ろしいものではないかもしれない。
ChatGPTのメモリシステムの主な弱点
Embrace The Red の研究者 Johann Rehberger 氏は、徹底的なレポートでこの欠陥について詳細に説明しています。Rehberger 氏は、攻撃者がプロンプトを挿入して ChatGPT のメモリに悪意のある指示を保存する方法を示しました。つまり、ハッカーはアプリを騙して誤った情報を記憶させ、今後のやり取りで機密データを危険にさらす可能性があるということです。
このエクスプロイトは、攻撃者が複数のエンゲージメントを通じて ChatGPT のメモリを管理できるようになるため、安全ではなくなります。偽のメモリがシステムに埋め込まれている限り、ハッカーは設定から名前やロケールまで、あらゆるユーザー データを抽出できます。
幸いなことに、このタイプの攻撃は広まっていません。OpenAI はすでに脆弱性に対処しており、ハッカーがメモリ機能を悪用することははるかに困難になっています。それでも、特にサードパーティのツールやアプリケーションによる脆弱性は存在しており、新しい潜在的な操作領域が露呈しています。
修正と残存する脆弱性
OpenAI は、認識されたメモリ問題に対応して ChatGPT の Web バリアントの API アップデートを展開し、ブラウザ インターフェース経由のプロンプト インジェクション エクスプロイトの使用を防止しました。さらに、メモリ ツールのアップデートをリリースし、メモリ ツールが流出ベクトルになることを防止しました。これらの改善は、潜在的なリスクが残っているにもかかわらず、システムが高レベルのセキュリティを維持するために必要です。
サードパーティのアプリケーションは依然として最大の懸念材料です。OpenAI の修正により、その基本システムにおけるメモリの悪用問題は解消されましたが、セキュリティ研究者は、信頼できないコンテンツが接続されたアプリケーション、ファイルのアップロード、およびブラウジング ツールを通じて ChatGPT のメモリを誘導できる可能性があると警告しています。これは、インスタント インジェクションがさらに繁栄する可能性のある領域を表しています。
自分を守る方法
OpenAI の調整により、広範囲にわたる攻撃の脅威は軽減されましたが、ユーザーは警戒を怠ってはなりません。潜在的なメモリ ハッキングから身を守るための方法をいくつか紹介します。
- ChatGPTの思い出を定期的に確認する: ユーザーは ChatGPT アプリの「新しいメモリが追加されました」通知を頻繁に確認する必要があります。この機能を使用すると、アーカイブされている情報を確認できるため、疑わしいエントリを削除できる可能性があります。
- 必要ない場合はメモリを無効にする: ChatGPT ではメモリ機能が自動的にオンになっていますが、無効にすることもできます。このアプローチは単純ですが、メモリベースの攻撃のリスクを排除するのに十分なほど強力です。
- 第三者とのやり取りには注意する: 接続されたアプリを使用したり、ChatGPT にファイルをアップロードしたりする場合は、特に注意する必要があります。これらのゾーンは、Swift インジェクション攻撃に対して引き続き脆弱です。
脅威に対して完全に無防備なシステムはありませんが、注意を払い、保存されたメモリを定期的に検査することで、この攻撃の標的になる可能性を減らすことができます。
ChatGPT のメモリセキュリティの進化
ChatGPT は、パーソナライズされたサービスのためにユーザー データを保持しており、強力なツールを提供しています。この方法を使用すると、システムは好みを記憶し、過去の会話を思い出すだけでなく、特定の好き嫌いを認識して、よりよい回答を作成することもできます。ただし、この能力はリスクを伴います。ChatGPT は、情報を長期間保持することで、即時の注入による潜在的な操作にさらされます。
レーバーガー氏は、ハッカーは 1 回のアクションでさまざまな偽の記憶を生成できると報告しています。送信された後、これらの記憶は ChatGPT に残り、AI との今後のすべての通信に影響を与える可能性があります。チャットボットへの継続的な信頼を前提とすることは、ユーザーが気付かないうちに誤ってより多くの個人情報を共有する可能性があるため、リスクを伴う可能性があります。
OpenAI はこれらの課題への取り組みで大きな進歩を遂げているが、未解決の問題がいくつか残っている。たとえば、プラットフォーム内のいくつかのセグメントは、特に第三者からの未検証のコンテンツが議論に持ち込まれると、即時インジェクション攻撃のリスクが残っている。同社がこれを「セキュリティの脆弱性」ではなく「モデルの安全性の問題」として分類するという決定は、専門家の間で疑問を呼んでいる。
定期的な監視:最善の防御策
ユーザーは、隠れたメモリの脆弱性にもかかわらず、情報を保護するために追加の対策を講じる必要があります。利用可能なオプションをいくつか紹介します。
- すべての「メモリ更新」通知を検査する: ChatGPT がメモリの更新について通知するたびに、一時停止して保存された内容を確認してください。この機能は、保存されている不要な情報を識別するのに役立ちます。
- 不要な記憶を削除する: ユーザーは ChatGPT のメモリに対して完全な権限を持ちます。異常に気付いた場合は、潜在的な損害を防ぐためにそれを除去してください。
- サードパーティのツールで注意を怠らない: ChatGPT とサードパーティ アプリケーション間の接続を監視します。OpenAI の取り組みによってこれらの領域への迅速なインジェクションの可能性が排除されていないため、これらのツールは依然として操作に対して脆弱です。
メモリハック: 単なるバグ以上のもの?
ChatGPT で発見されたメモリ脆弱性により、ユーザー エクスペリエンスを向上させるために設計された AI ツールが追加のセキュリティ リスクをもたらす可能性があることが明らかになりました。メモリベースの特性により、パーソナライズされたインタラクションが可能になりますが、ハッカーがこれらのインタラクションを悪意のある目的で悪用する可能性があります。
ChatGPT が進化するにつれ、ユーザーは注意を怠らず、保存されたメモリを常に確認し、外部コンテンツと関わる際には注意する必要があります。OpenAI はセキュリティを大幅に改善しましたが、既存の脆弱性に対処するにはさらなる努力が必要です。潜在的な危険を認識し、積極的に行動することで、データの安全性を確保しながら、ChatGPT とのパーソナライズされたやり取りを継続できます。
注目の画像クレジット: フリーピック
Source: ChatGPT メモリ ハック: AI セキュリティの弱点により、信頼レベルの再評価が必要に