ヨーロッパが岐路に:児童安全法が問うデジタルプライバシーの未来
EUがハイテク企業に対し、プライベートメッセージのスキャンを義務付ける計画が決定的な採決に向かっている。批判派は、この計画がヨーロッパの携帯電話を広範な監視システムの要に変える可能性があると警告している。
ブリュッセル発 — 10月13日、欧州連合(EU)加盟各国の司法大臣が密室に集まり、5億人に影響を与えうるジレンマに直面する。その核心にある問いは単純に見える:企業は児童性的虐待の資料を求めてプライベートメッセージをスキャンする義務を負うべきか?しかし、実際には決して単純ではない。
この提案は、これまで欧州で確立されていたデジタル権利に関する合意を大きく揺るがしている。支持派は、自動スキャンはオンライン上の捕食者から子どもたちを守るために不可欠だと主張する。一方、反対派は、これによって暗号化が骨抜きにされ、すべての個人の生活が政府の監視に晒されることになると強く訴えている。
議題となっているのは単なる法律ではない。それはインターネットの基盤構造(プラミング)の再設計に他ならない。
「チャット・コントロール」と批判派から揶揄されている児童性的虐待規制案は、いわゆる「クライアントサイド・スキャン」を義務付けるものだ。これは、暗号化によってメッセージや写真が混同される前に、あなたのスマートフォンやノートパソコンが一つ一つのメッセージと写真をチェックすることを意味する。事実上、プライベートな会話はあなたのデバイス上で目に見えない検問所を通過することになる。
交渉が進行中であるため匿名を条件に語ったあるEU高官は、言葉を選ばずに述べた。「メッセージを事前スキャンしながら、それがエンドツーエンドで暗号化されていると主張することはできない。それは根本的にカテゴリを変えるものだ。」
この法案がどのように機能するか
イルバ・ヨハンソン委員は、2022年5月にこの計画を導入した。これにより、裁判所は「検出命令」を発行できるようになり、メッセージングアプリ、電子メールサービス、クラウドストレージプロバイダーに対し、既知の虐待画像、新たな虐待素材、そしてグルーミング行為という3種類のものを探すことを法的に義務付けることになる。
書面上では、このシステムは整然としているように見える。アルゴリズムはファイルを既知の画像データベースと比較し、機械学習は新たな虐待コンテンツを発見しようと試み、パターンマッチングツールはグルーミングに似た会話を探す。疑わしい検出結果は新しいEUセンターに送られ、そこで発見内容が再確認されてから警察に通知される。
これは、すでに違法なコンテンツをスキャンしている電子メールプロバイダーやソーシャルネットワークの多くにとっては、管理可能なことのように聞こえるかもしれない。しかし、WhatsApp、Signal、iMessageのようなエンドツーエンドで暗号化されたアプリは、企業のサーバー上でスキャンすることはできない。これらのメッセージは送信された瞬間から暗号化されているためだ。この法案を遵守するためには、それらのアプリがユーザーの電話自体でスキャンを行う必要がある。
そして、ここに政治と数学が衝突する。
至るところに危険信号
欧州自身の法的監視機関も懸念を抱いている。欧州データ保護監視機関と欧州データ保護委員会の両者は、包括的なスキャンがEU基本権憲章に基づくプライバシーおよびデータ保護の基本権を侵害する可能性があると警告した。
通常は控えめな理事会法務サービスですら、このような命令がEUの均衡性テストを乗り越えられるか疑問を呈した。EUの最高裁判所は、通信の無差別監視を繰り返し却下してきた経緯がある。
技術専門家たちは、より具体的な懸念を抱いている。もしあなたのデバイスがメッセージを送信する前に常にそれを検査するならば、設計上、完全に信頼することはできない。ハッカー、権威主義的な政府、またはスキャンシステムを悪用できる者は誰でも、個人の生活への新たな扉を手に入れることになる。
デジタル権利団体によるある分析が述べているように:スキャン・パイプラインが存在すれば、立法者がその範囲を拡大するのを妨げるものは何もない。今日は児童虐待資料かもしれない。明日はテロ、著作権、あるいは反体制意見になるかもしれないのだ。
推進派の主張
それでも、支持派は不作為のリスクが高すぎると主張する。ヨーロッパ全土の警察は、ハイテク企業からの情報がすでに捜査において極めて重要な役割を果たしていると述べている。スキャンなしで暗号化が普及すれば、当局は「闇に覆われ」、公然と行われているにもかかわらず、破ることのできない暗号化の陰に隠れた犯罪を見失うだろうと彼らは警告する。
推進派は、この計画は大規模な監視ではなく、標的を絞ったツールだと主張する。検出命令には司法の承認が必要となる。EUセンターは、警察が誤報を見る前にそれらをフィルターにかける。そして、対象範囲は子どもに対する犯罪に限定される。
しかし、批判派は納得していない。数十億件のプライベートな通信の中から数千件の違法なものを探し出すためにチェックを行うことは、必然的に誤りを生むだろう。99%正確なシステムであっても、毎日数千件の冤罪を生み出すことになる。これは、無実の親、ジャーナリスト、あるいは虐待のサバイバーが、彼らのプライベートな会話を当局にマークされる可能性があることを意味する。
グルーミングの検出は、さらに大きな疑問を投げかける。画像マッチングとは異なり、捕食的な会話を発見するには、トーン、文脈、そして微妙な言語のニュアンスを分析する必要がある。現在のAIツールは、このようなニュアンスを大規模に処理することに苦戦しており、専門家たちは、そのようなシステムの悪用を防ぐための保護策が機能するか疑問視している。
10月の転換点
理事会議長国であるデンマークは、妥協案の文言でこの停滞した提案を復活させようと懸命に働きかけている。しかし、意見の一致は難しい。ドイツとルクセンブルクは態度を揺らがせ、プライバシーに関する懸念を表明することもあれば、軟化することもある。必要な特定多数決を満たすのに十分な国が賛成に回るかは、誰も予測できない状況だ。
大臣たちは、以下の3つのうちいずれかの結果で会議を終える可能性がある。
- 既知の画像検出に限定し、暗号化アプリには当面手をつけない妥協案。
- 決定を将来の理事会に先送りし、自主的なスキャンは継続する延期案。
- あるいは、クライアントサイド・スキャンを全面的に採用し、即座に訴訟を引き起こし、主要なメッセージングアプリに、遵守、EUからの撤退、または特定の機能のブロックのいずれかを選択させることになる全面採用案。
なぜヨーロッパを越えて重要な意味を持つのか
ヨーロッパがどのような決定を下すにせよ、その波紋ははるかに広範囲に及ぶだろう。もしEUがクライアントサイド・スキャンを要求すれば、それは個人デバイスに直接組み込まれる世界初の法的に義務付けられた監視レイヤーを創出することになる。他の政府がこれに追随するかもしれないし、抵抗するかもしれない。ハイテク企業は、地域ごとに異なるバージョンのアプリを構築することになるかもしれない。グローバルな暗号化メッセージングネットワークは、国境に沿って分裂する可能性もある。
一般のユーザーにとって、一見したところほとんど変化はないだろう。メッセージは引き続き届き、写真は送信されるだろう。しかし、その裏側では、暗号化がそれらを覆い隠す前に、一つ一つの単語、画像、または動画が密かに検査されることになる。
この現実に市民社会団体は奔走している。活動家たちは政府に働きかけ、プライバシー団体は訴訟の準備を進めている。セキュリティ研究者たちはリスクについて警告し続けている。しかし、オンラインでの児童虐待に対して「何かをするべきだ」という政治的圧力は依然として強い。
ヨーロッパは今、厳しい問いに直面している:子どもたちを守るという名目で、デジタル社会の基盤に監視システムを組み込むのか、それともプライバシーのある一線は決して超えるべきではないと判断するのか?
詳細は間もなく明らかになるだろう。司法大臣たちは10月13日にブリュッセルで会合を開く。彼らの選択は、今後数十年にわたる世界のデジタルプライバシーの方向性を決定する可能性がある。
