本文の先頭へ
LNJ Logo Appleが暗号政策を転換/iCloudの暗号化が危機に
Home 検索
 




User Guest
ログイン
情報提供
News Item 1629441952720st...
Status: published
View


*レイバーネットMLから

小倉利丸です。直接にはMacやiPhoneユーザーに関係しますが、たぶんほとんどの皆さんにも 今後関係することになる大問題です。 ここ数週間、監視社会問題やプライバシー問題にとりくんでいる世界中の団体は、アップ ルが政策の大転換をしようとしていることに大きなショックを受けました。これまでユー ザしか解読できないとされていたエンド・ツー・エンド暗号化で保護されていたはずのiC loudに捜査機関が介入できるようにするという声明を出しました。以下はこのアップルの 方針転換への世界各国91団体による反対声明です。JCA-NETも署名団体になっています。 いつものことですが、人権団体が取り組みにくい問題(今回は主に児童ポルノ)を突破口に 、暗号化に歯止めをかけようとするものです。日本でもデジタル庁が秋から発足します。 官民一体の監視社会化に対抗できる有力な武器は暗号化ですが、そのことを「敵」も承知 していて、攻勢を強めているように思います。 (付記)iCloudの暗号化については以下のAppleのサイトを参照してください。 https://support.apple.com/ja-jp/HT202303?cid=tw_sr ================================== https://www.jca.apc.org/jca-net/ja/node/130 JCA-NETをはじめとして、世界中の91の団体が共同で、アップル社に対して共同書簡を送 りました。以下は、その日本語訳です。 英語本文は下記をごらんください。 https://cdt.org/wp-content/uploads/2021/08/CDT-Coalition-ltr-to-Apple-1… アップルは、マックやiPhoneユーザの大半が利用している自社にiCloudについて、エンド ・ツー・エンド暗号化の方針を転換し、捜査機関などがクラウドのデータにアクセスでき る仕組みを導入することを公表しました。以下の公開書簡はこの決定を取り消すように求 めたものです。 --------------------------------- 2021年8月19日 公開書簡 宛先:ティム・クック Apple, Inc.CEO クック氏へ。 世界中の市民権、人権、デジタルライツに取り組む以下の団体は、Appleが2021年8月5日 に発表した、iPhoneやiPadなどのApple製品に監視機能を搭載する計画を断念することを 強く求めます。これらの機能は、子どもたちを保護し、児童性的虐待資料(CSAM)の拡散 を抑えることを目的としていますが、保護されるべき言論を検閲するために使用され、世 界中の人々のプライバシーとセキュリティを脅かし、多くの子どもたちに悲惨な結果をも たらすことを懸念しています。 Appleは、テキストメッセージサービス「Messages」の画像をスキャンする機械学習アル ゴリズムを導入し、ファミリーアカウントで子どもと特定された人との間で送受信される 性的表現を検出すると発表しました。この監視機能は、アップルのデバイスに組み込まれ ます。このアルゴリズムは、性的に露骨な画像を検出すると、その画像がセンシティブな 情報の可能性があることをユーザーに警告します。また、13歳未満のユーザーが画像の送 受信を選択すると、ファミリーアカウントの管理者に通知が送られます。 性的表現を検出するためのアルゴリズムは、信頼性が低いことが知られています。芸術作 品、健康情報、教育資料、擁護メッセージ、その他の画像に誤ってフラグを立ててしまう 傾向があります。このような情報を送受信する子どもたちの権利は、国連の「子どもの権 利条約」で保護されています。さらに、Appleが開発したシステムでは、「親」と「子」 のアカウントが、実際には子どもの親である大人のものであって、健全な親子関係を築い ていることを前提としています。こうした前提は必ずしも正しいものではなく、虐待を受 けている大人がアカウントの所有者である可能性もあり、親への通知の結果、子どもの安 全と幸福が脅かされる可能性もあります。特にLGBTQ+の若者は、無理解な親のもとで家族 のアカウントを利用しているため、危険にさらされています。この変更により、送信者と 受信者のみが送信情報にアクセスできるエンドツーエンドで暗号化されたメッセージシス テムを通じた機密性とプライバシーがユーザーに提供されなくなります。このバックドア 機能が組み込まれると、政府はアップル社に対して、他のアカウントへの通知や、性的表 現以外の理由で好ましくない画像の検出を強制することが可能になります。 また、Appleは、米国の「National Center for Missing and Exploited Children(行方 不明および搾取される子供のための全国センター)」やその他の子供の安全に関する組織 が提供するCSAM画像のハッシュデータベースを自社製品のOSに組み込むと発表しました。 これは、ユーザーがiCloudにアップロードするすべての写真をスキャンします。一定の基 準に達した場合には、そのユーザーのアカウントを無効にし、ユーザーとその画像を当局 に報告します。多くのユーザーは、撮影した写真を日常的にiCloudにアップロードしてい ます。このようなユーザーにとって、画像の監視は選択できるものではなく、iPhoneやそ の他のAppleデバイス、そしてiCloudアカウントに組み込まれています。 この機能がApple製品に組み込まれると、Appleとその競合他社は、CSAMだけでなく、政府 が好ましくないと考える他の画像も含めて写真をスキャンするよう、世界中の政府から大 きな圧力を受け、法的に要求される可能性があります。それらの画像は、こうした企業が 人権侵害や政治的抗議活動、「テロリスト」や「暴力的」コンテンツとしてタグ付けした 画像であったり、あるいはスキャンするように企業に圧力をかけてくる政治家の不名誉な 画像などであるかもしれないのです。そしてその圧力は、iCloudにアップロードされたも のだけでなく、デバイスに保存されているすべての画像に及ぶ可能性があります。このよ うにしてAppleは、世界規模での検閲、監視、迫害の基礎を築くことになります。 私たちは、子どもたちを守るための取り組みを支援し、CSAMの拡散に断固として反対しま す。しかし、Appleが発表した変更は、子どもたちや他のユーザーを現在も将来も危険に さらすものです。私たちは、Appleがこのような変更を断念し、エンドツーエンドの暗号 化によってユーザーを保護するという同社のコミットメントを再確認することを強く求め ます。また、Appleが、製品やサービスの変更によって不均衡な影響を受ける可能性のあ る市民社会団体や脆弱なコミュニティと更に定期的に協議することを強く求めます。 敬具 [署名団体] toshimaru ogura rumatoshi@protonmail.com http://www.alt-movements.org/no_more_capitalism/

Created by staff01. Last modified on 2021-08-20 15:45:54 Copyright: Default

このページの先頭に戻る

レイバーネット日本 / このサイトに関する連絡は <staff@labornetjp.org> 宛にお願いします。 サイトの記事利用について