Metaの最新のAIチャットボットは、ツールのデフォルト設定がユーザーインタラクションを公開していることが発見された後、大きなプライバシーの論争を引き起こしました。今週主要な報道機関によって報告されたこの啓示は、ユーザーの明示的な同意なしに、医療質問から法的懸念まで、幅広い機密情報を明らかにしました。
2025年に発売されたAIチャットボットは、個人がプライバシー設定を積極的に調整しない限り、すべてのユーザーインタラクションを「パブリック」に自動的に設定します。この設計の選択により、高齢者や子供を含む多数のユーザーが、幅広い視聴者と非常に個人的で敏感な情報を無意識のうちに共有しています。例には、性器怪我について尋ねるユーザー、性別の移行に関するガイダンスを求めている若者、および刑事刑を減らすために当局と協力するなど、法的問題の支援を要求する個人が含まれます。
これらのパブリック投稿には、多くの場合、ユーザー名とプロファイル写真が含まれており、クエリをユーザーのソーシャルメディアアカウントに直接リンクしています。これにより、民間の医学的不安と法的トラブルを恒久的で公的にアクセス可能な記録に変えます。
メタには、「投稿が公開され、すべての人に目に見えるプロンプトが表示されます。個人的または機密情報を共有しないようにしてください。」しかし、批評家は、この警告は不十分だったと主張しています。多くのユーザーは、特にAIチャットボットのインタラクションがソーシャルメディアのようなフィードに表示されることを期待していない可能性があるため、公開フィードに公開していることを理解していませんでした。この機能を発表したメタのプレスリリースは、「発見フィード、他の人がAIを使用している方法を共有して探求する場所」と説明し、欠陥ではなく機能としてプライベートな会話の公開をフレーミングしました。
この事件は、AIプライバシーと、これらのツールが機密ユーザーデータを公開する可能性について、より広範な議論に火をつけました。 Electronic Frontier Foundation(EFF)は、AIチャットボットが「モデルの漏れ」を通じて誤って個人情報を明らかにすることができると警告しています。これは、AIモデルがトレーニングと運用を通じて、トレーニングされたデータまたはそれらと対話した個人に関する情報を不注意に開示する可能性があることを指します。
メタ事件を超えて、AIプライバシーに関する懸念は広まっています。 2024年の全国サイバーセキュリティアライアンス調査では、従業員の38%が雇用主の許可なしに敏感な作業情報をAIツールと共有していることが明らかになりました。これは、AIチャットボットを使用して企業の秘密と機密データが侵害される可能性を強調しています。
データ保護当局は、AIプライバシーの影響にも取り組んでいます。たとえば、オランダのデータ保護局は、従業員が患者の医療データと顧客アドレスをAIチャットボットに入力した企業から複数の違反通知を受け取りました。これらの事件は、プライバシー規制に違反し、機密の個人情報を公開するリスクを強調しています。
より良いプライバシー保護を提供すると主張するAIサービスでさえ、懸念の影響を受けません。 AnthropicのClaudeは、より強力なデフォルト保護を主張していますが、ChatGPTでは、データがトレーニングに使用されないことを保証するために有料のサブスクリプションが必要です。ただし、これらのポリシーはいつでも変更でき、企業が長年の保存された会話に遡及的にアクセスできるようにする可能性があります。これにより、ユーザーは利益主導の企業の信頼性に依存して、親密なユーザーデータの膨大な高校を収益化する誘惑に抵抗します。
最近のデータ侵害により、AIシステムの脆弱性がさらに強調されています。 Openaiは、内部議論を公開するデータ侵害を経験しましたが、100万を超えるDeepSeekチャットレコードが無担保データベースに公開されました。これらのインシデントは、AIシステム内に保存されている機密情報がセキュリティの脆弱性を通じて侵害される可能性を示しています。
MITテクノロジーレビューは、AIツールが日常生活にますます統合されるようになるにつれて、セキュリティとプライバシー「災害」に向かっていると警告しています。何百万人ものユーザーが、AIチャットボットで医学的不安、仕事の秘密、個人的な課題を共有しており、公開、販売、または召喚される恒久的な記録を作成しています。メタ事件は、多くの人がAI企業の間で一般的な慣行であると信じていることを明らかにしただけです。ユーザーがすべてのリスクを負っている間、利益のために親密な会話を収穫することです。
GDPR違反は、AI企業に対する執行施行の依然として、2,000万ユーロまたは4%の世界収益の大幅な罰金をもたらす可能性があります。さらに、現在のGDPRおよびCCPAドキュメントは、AIトレーニングデータまたはモデル出力で個人情報がどのように処理されるかについて適切に対処していません。
Meta Chatbotインシデントは、今日のAIチャットボットと共有されている情報が将来の露出に対して脆弱である可能性があることを思い出させるものとして機能します。これは、企業の政策変更、セキュリティ違反、または法的要求によって発生する可能性があります。メタの公共飼料災害は非常に目に見える例ですが、機密性の高いユーザーデータを収集し、誤って誤用する可能性のあるAI企業のより広範な問題を強調しています。少なくともメタユーザーは、公開されている恥ずかしい質問を見ることができ、それらを削除しようとすることができます。私たちの残りは、私たちの会話に何が起こっているのか分かりません。
Source: Meta AI Chatbotはユーザーデータを公開します
