米アップル「児童性的虐待画像検出は誤解されている」

Appleは8月5日、ユーザーがiCloudに保存する写真が児童性的虐待コンテンツ(CSAM)かどうかを特定するシステムを導入すると発表しました。これに対し、ユーザーのプライバシーを侵害する恐れがあるとして、批判の声が挙がっています。NTDは、Appleが導入する画像スキャン技術の利用について、IT業界の専門家にインタビューを行いました。報道をご覧ください。

Apple社の幹部が、計画中の児童の性的虐待コンテンツ(CASM)を検出するシステムの仕組みについて説明しました。これは、システムがユーザーのプライバシーを侵害しかねないとする批判を受けてのことです。

Appleは、同システムはCSAMのデータベースにマッチしないiCloud内の画像情報は一切取得しないため、プライバシーの侵害は防止できるとしています。

しかし、あるIT業界の専門家は、このシステムの精度に疑問を呈しています。

T業界の重鎮 ジョージ・ヘイバー氏
「私の10歳の孫が裸でプールに入っているときに彼にキスする私と、10歳の子供に悪戯しようとする変質者をシステムがどうやって識別できるのか、私には分からない。それができるとしたら、Appleは大したものだ」

Appleはデータベースが単一の組織もしくは政府によってコントロールされない仕組みを確立しています。Appleは連動する複数のメカニズムを使用しており、エラーを防ぐために人間がその調査結果を検証します。

ヘイバー氏は、多くのIT企業が児童虐待や児童ポルノ問題の取り組みに尽力していることは承知しつつも、Appleの最終的な目標に、疑問を感じています。

T業界の重鎮 ジョージ・ヘイバー氏
「Appleはプライバシー重視をウリにしているだけに、これは少々驚きだ。その一方で、今回のケースでは犯罪防止の名目でやっていると言って、善人面することができる。そして犯罪防止を理由に、彼らは全ての画像をスキャンする権利を持つことになる。何のためにそういうことをするのか、私には理解できない」

ある報告によると、iPhoneは米国のスマホ市場で55%のシェアを占めています。

〈字幕版〉

 
関連記事