3.8 C
Tokyo
2024年12月19日木曜日
ホームニュースApple、iCloudで児童性的虐待コンテンツの検出・削除を適切に行わず…12億ドルの賠償請求を受ける可能性

Apple、iCloudで児童性的虐待コンテンツの検出・削除を適切に行わず…12億ドルの賠償請求を受ける可能性

AppleがiCloudで児童性的虐待コンテンツ(CSAM)資料を適切に検出・削除しなかったとして、集団訴訟に巻き込まれた。

8日(現地時間)、ニューヨーク・タイムズ(NYT)は、27歳の匿名女性が7日に米国のカリフォルニア州北部地区連邦地裁に訴訟を提起したと報じた。今後、2,680人の潜在的被害者が訴訟に加わる可能性がある。

裁判でAppleの責任が認められれば、潜在的被害者の追加訴訟を考慮すると、総賠償額は12億ドル(約1,818億円)を超える見通しだ。

訴訟を起こした女性は、幼少期に親族から性的虐待を受け、加害者が被害者の写真を他者と共有したと明かした。

写真がAppleのiCloudに保存され、複数の人と共有された。関係者が児童虐待画像所持容疑で起訴されるたび、法執行機関がその旨を通知し、トラウマに苦しんでいると訴えている。

被害者側は、AppleがiPhoneなどで児童性的虐待資料を自動検出・監視する機能の導入を断念したことで被害が拡大したと主張している。

実際、Appleは関連機能を開発したが、ユーザーのプライバシー侵害懸念から2021年に導入を断念した。

原告側は「Appleが2021年に発表したCSAM技術を導入していれば、被害者の児童性的虐待映像や画像が検出・削除されていたはずだ」と主張した。「Appleがこれを実行しなかったため、被害が続いている」と訴えている。

Appleのフレッド・セインズ広報担当者は「児童性的虐待資料は忌まわしいものであり、加害者から子どもを守るため全力を尽くしている」と述べた。さらに「全ユーザーのセキュリティとプライバシーを損なうことなく、これらの犯罪と闘うため積極的に革新を進めている」と付け加えた。

コメントを書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください

Exit mobile version