によると、Appleは、iCloud上で児童性的虐待マテリアル(CSAM)を検出することを目的としたシステムの実装を怠ったとして、児童性的虐待被害者からの訴訟に直面しているという。 ニューヨーク・タイムズ。北カリフォルニアで起こされたこの訴訟は、約2,680人に対して12億ドルを超える損害賠償を求めている。この訴訟では、特に同社が2021年に最初にCSAM検出ツールを提案した後、ユーザーデータの保護におけるAppleの怠慢が主張されている。
Apple の CSAM ツールとその後の廃止の背景
2021年、AppleはiCloudをスキャンして虐待的な画像がないかを調べ、国立行方不明児童・搾取児童センターに警告するCSAM検出ツールの計画を発表した。この取り組みは、子供の安全を向上させ、搾取と効果的に戦うことを目的としていました。しかし、プライバシー侵害の可能性に対する激しい反発を受け、同社はプロジェクトを撤回した。批評家は、この技術がユーザーのプライバシー権を侵害する可能性があると懸念を表明し、その結果、その技術が放棄されることになった。その結果、被害を受けた人々は、Apple が有害な画像の流通を防ぐために必要な措置を講じなかったと主張しています。
訴訟では、幼少期の画像の共有に関して法執行機関からの通知を受け続けている27歳の女性を含む、被害者たちが経験した苦痛について説明している。出回った画像は関係者の精神的苦痛をさらに悪化させます。原告らは、アップルが独自に提案した安全対策を実施しなかったため、そのような素材が同社のプラットフォーム上に野放しのまま残されたと主張している。
Appleの対応と既存の対策
この訴訟を受けて、Appleはユーザーのプライバシーを維持しながら子供たちを保護するという自社の取り組みを強調した。広報担当のフレッド・サインツ氏は「児童への性的虐待の内容は忌まわしいものであり、私たちは捕食者が子どもたちを危険にさらす方法と戦うことに全力で取り組んでいる」と述べた。同氏は、露骨なコンテンツを送受信したときにユーザーに警告を発するコミュニケーションセーフティなど、既存の安全機能を指摘した。こうした継続的な取り組みにもかかわらず、同社は CSAM の課題への対処における有効性に関して厳しい監視に直面しています。
今年初め、Apple は英国の全米児童虐待防止協会 (NSPCC) からも批判され、自社のプラットフォーム上で見つかった CSAM の事例を過少報告しているとして同社を非難した。この圧力の高まりは、児童搾取と闘い、自社サービスにおけるユーザーの安全を確保するというAppleの戦略に対する継続的な懸念を浮き彫りにしている。
状況が進展する中、Apple の監督と、CSAM の拡散を検出して制限する効果についての調査は引き続き行われています。
注目の画像クレジット: Tim Mossholder/Unsplash
Apple が CSAM 検出失敗をめぐって 12 億ドルを求めて訴訟を起こした記事は、TechBriefly に最初に掲載されました。
Source: Apple、CSAM検出失敗を巡り12億ドルの訴訟を起こす