Table of Contents
はじめに
インターネット及び携帯電話・スマートフォン等の急速な普及は、個人間のコミュニケーションを容易にするとともに、個人がソーシャルメディアにおいて様々な発信を行うことを可能とした。特に、SNS(ソーシャルネットワーキングサービス)等のソーシャルメディアの利用時間や利用率は近年大きく伸びており、我が国の日常生活や社会経済活動において大きな役割を果たしている。
しかし、インターネット上では、依然として、違法な情報や有害な情報の流通も認められ、昨今、特定の個人に対して多くの誹謗中傷の書き込みが行われるいわゆる「炎上」事案や、震災や新型コロナウイルス感染症などの社会不安に起因する誹謗中傷が行われるなど、特に SNS 上での誹謗中傷等の深刻化が問題となっている。
また、インターネット上でのフェイクニュースや偽情報(以下「偽情報」という。)の流通の問題が顕在化しており、例えば新型コロナウイルス感染症や米国大統領選挙に関するものも含め SNS 上で偽情報が拡散する等これに接触する機会が増加している。
これらの状況を踏まえ、誹謗中傷の問題に関しては、プラットフォームサービスに関する研究会(以下「本研究会」という。)において、2020 年8月に「インターネット上の誹謗中傷への対応の在り方に関する緊急提言」(以下「緊急提言」という。)を公表し、これを受けて、総務省において 2020 年9月に「インターネット上の誹謗中傷への対応に関する政策パッケージ」(以下「政策パッケージ」という。)を策定・公表した。
また、偽情報の問題に関しては、本研究会において、我が国における偽情報への対応の在り方について記載した本研究会の報告書を 2020 年2月に策定・公表した。
本研究会では、誹謗中傷や偽情報の問題への対応に関するこれらの緊急提言、政策パッケージ及び本研究会の報告書を踏まえ、プラットフォーム事業者の取組が十分かどうか、官民の取組が適切に進められているかどうか等について、プラットフォーム事業者からヒアリング等を通じてモニタリングを行うとともに、検証評価を行った。
近年では、スマートフォンや IoT 等を通じた情報流通及び AI を活用したデータ解析による Society 5.0 の実現が指向されており、ポストコロナ時代に向けて、デジタルシフトは更に進んでいくことが想定される。
また、生活のために必要なサービスがスマートフォン等経由でプラットフォーム事業者により提供され、人々の日常生活におけるプラットフォーム事業者の重要性が高
まる中で、より機微性の高い情報についても取得・蓄積されるようになってきている。その中で、様々なサービスを無料で提供するプラットフォーム事業者の存在感が高まっており、プラットフォーム事業者等により利用者情報が取得・集積・活用される傾向が強まっている。
本研究会では、イノベーションや市場の発展を維持しつつ、利用者が安心してスマートフォンやインターネットを通じたサービスを利用していくことができる環境を確保していくことを目的に、我が国における利用者情報の適切な取扱いの確保の在り方について記載した本研究会の報告書を 2020 年2月に策定・公表した。
本年2月には、新たに「プラットフォームサービスに係る利用者情報の取扱いに関するワーキンググループ」(以下「利用者情報 WG」という。)を立ち上げ、利用者情報の適切な取扱いの確保に関して、プラットフォーム事業者等の取組の状況について把握するためにヒアリング等を通じてモニタリングを行うとともに、検討を進めてきたところである。
本中間とりまとめ(案)は、これまでの検討結果を踏まえ、それぞれのテーマについて、具体的な方策の在り方や今後の検討の具体的な方向性を示すものである。
第1部 誹謗中傷や偽情報を含む違法・有害情報への対応について
第1章 誹謗中傷への対応に関する現状と課題
1 現状と課題
(1) これまでの対策の方向性
昨今、特定の個人に対して多くの誹謗中傷の書き込みが行われるいわゆる「炎上」事案や、震災や新型コロナウイルス感染症などの社会不安に起因する誹謗中傷が行われるなど、特に SNS 上での誹謗中傷等の深刻化が問題となっていることを踏まえ、本研究会において、2020 年7月にプラットフォーム事業者から誹謗中傷への対策状況についてヒアリングを行い、2020 年8月に「緊急提言」を公表した。その後、「緊急提言」を受けて、総務省において 2020 年9月に「政策パッケージ」を策定・公表し、産学官民による連携のもとで、取組を進めてきた。
(2) 流通状況
インターネット上の誹謗中傷対策を進めていく前提として、我が国におけるインターネット上の誹謗中傷の実態を適切に把握することが必要である。
総務省が委託運営を行っている「違法・有害情報相談センター」で受け付けている相談件数は高止まり傾向にあり、令和2年度(2020 年度)の相談件数は、受付を開始した平成 22 年度(2010 年度)の相談件数の約4倍に増加している。総務省は、令和3年(2021 年)2月に、相談(作業)件数の事業者別の内訳を公表した。令和2年度(2020 年度)における相談件数の上位5者は、Twitter、Google、5ちゃんねる、Facebook、LINEとなっている。
法務省におけるインターネット上の人権侵害情報に関する人権侵犯事件は、平成 29 年(2017 年)に過去最高(平成 13 年(2001 年)の現行統計開始以降)の件数を更新し、令和2年(2020 年)についても、引き続き高水準で推移している。法務省は、インターネット上の人権侵害情報について、法務省人権擁護機関による削除要請件数と削除対応率について、事業者別の数値(個別の事業者名は非公表)を令和3年(2021 年)2月に公表した。平成 30 年(2018 年)1月~令和2年(2020 年)10 月の期間内に、5,223 件の事案が人権侵犯事件として立件された。法務局においては、これらについて当該情報の違法性を判断し、そのうち 1,203 件について削除要請を実施したところ、プロバイダ等による削除対応率は 68.08%であった。さらに、法務省は、投稿の類型別(私事性的画像情報、プライバシー侵害、名誉毀損、破産者情報、識別情報の摘示)の削除要請件数及び削除対応率についても公表を行った。
また、有識者の分析結果によると、2020 年4月のネット炎上件数は前年同月比で 3.4 倍であり、2020 年の炎上件数は 1,415 件となっている。インターネットのような能動的な言論空間では、極端な意見を持つ人の方が多く発信する傾向がみられる。過去1年以内に炎上に参加した人は、約 0.5%であり、1件当たりで推計すると 0.0015%(7万人に1人)となっている。書き込む人も、ほとんどの人は炎上1件に1~3回しか書き込まないが、中には 50 回以上書き込む人もいるなど、ごく少数のさらにごく一部がネット世論を作る傾向が見られるとの指摘がある。
また、炎上参加者の肩書き分布に特別な傾向は見られない。書き込む動機は 「正義感」(どの炎上でも 60~70%程度)となっている。社会的正義ではなく、各々が持っている価値観での正義感で人を裁いており、多くの人は「誹謗中傷を書いている」と気付いていないという分析結果が挙げられた。
(3) 各ステークホルダーの取組状況
① ユーザに対する情報モラル及びICTリテラシー向上のための啓発活動総務省では、ユーザに対する情報モラル及び ICT リテラシーの向上のための様々な啓発活動を実施している。
具体的には、2020 年9月にインターネット上の誹謗中傷に関する注意事項等をまとめた「インターネットトラブル事例集(2020 年版) 追補版」を作成・公表し、学校等への周知を実施した。追補版公表にあたっては、総務省としてスマートフォンでの閲覧を考慮した啓発ウェブページを作成したほか、内閣府大臣官房政府広報室と連携して広告を掲載、関係省庁・関係団体と連携して全国の学校等や SNS ユーザ等へ周知するなど、様々なチャネルを活用して周知を実施した。
また、学校等での出前講座「e-ネットキャラバン」の講座内容にインターネット上の誹謗中傷に関するものを追加した。
さらに、SNS のより良い利用環境実現に向けたスローガンとして、また、SNS で悩んでしまった際に役立ててもらうため、「#NoHeartNoSNS」の特設ウェブサイトを開設し、周知を実施した。
② プラットフォーム事業者の自主的取組の支援と透明性・アカウンタビリティの向上
法務省人権擁護機関は、重大な人権侵害事案において、名誉毀損、プライバシー侵害等に該当する場合には、被害者からの人権相談を端緒として削除要請をウェブサイト運営者に対して行っている。
この点、総務省は法務省と連携し、法務省人権擁護機関からの削除依頼を踏まえウェブサイト運営者による迅速な削除等の対応が行われる環境を整備するため、プラットフォーム事業者や業界団体等との意見交換の場となる実務者検討会を継続的に開催している。法務省人権擁護機関への相談事案に関する認識について関係者間で共有を図るとともに、法務省人権擁護機関からの申告について透明性の向上を行い、ウェブサイト運営者による円滑な対応を促進している。
また、法務省人権擁護局は、公益社団法人商事法務研究会が主催し、2021 年4月から開催されている「インターネット上の誹謗中傷をめぐる法的問題に関する有識者検討会」に参加し、削除要請に関する違法性の判断基準や判断方法等の議論に積極的に関与している。なお、同有識者検討会には、総務省も参加している。
さらに、官民連携の取組として、2021 年4月には、「YouTube 公認報告者プログラム」に法務省人権擁護局が参加した。コミュニティガイドライン違反報告に資するツールが使用可能となり、法務省人権擁護機関からの報告が優先的な審査の対象とされるなどすることにより、法務省人権擁護機関から YouTube に対する削除要請への円滑な対応が期待される。
民間における取組としては、一般社団法人セーファーインターネット協会(SIA)は、2020 年 6 月より、「誹謗中傷ホットライン」の運用を開始した。インターネット上で誹謗中傷に晒されている被害者からの連絡を受け、コンテンツ提供事業者に、各社の利用規約に基づき削除等の対応を促す通知を行っている。
2020 年の連絡件数は 1,237 件であり、そのうち、ガイドラインに基づき削除通知対象となる「特定誹謗中傷情報」に該当するものが 293 件(22.4%)、非該当が 944 件(77.6%)であった。293 件のうち、973URLに対して削除通知を行い、削除確認されたものが 836URL(削除率 85.9%)であった。
誹謗中傷等への対応に関しては、国際的な対話が深められることも重要である。この点、総務省では、誹謗中傷を始めとしたインターネット上の違法・有害情報対策に関する国際的な制度枠組みや対応状況を注視し、対応方針について国際的な調和(ハーモナイゼーション)を図るための実施している。
具体的には、2021 年2月~6月に、第 26 回日 EU・ICT 政策対話、第11 回日 EU・ICT 戦略ワークショップ、第5回日独 ICT 政策対話、第 21回日仏 ICT 政策協議を実施した。日本側からは、「インターネット上の誹謗中傷(Online Harassment)」及び「フェイクニュース(“Fake news”& disinformation)」に関する政策動向を紹介した。
また、2021 年4月に、G7デジタル・技術大臣会合が開催され、「Internet Safety Principles」に関する合意文書を含む大臣宣言が採択された。「Internet Safety Principles」の中で、特に、事業者の違法・有害情報への対応措置に関する透明性・アカウンタビリティを世界・国・地域のレベルにおいて果たすことが求められるとされた。
③ 発信者情報開示に関する取組
総務省は、インターネット上の誹謗中傷等による権利侵害についてより円滑に被害者救済を図るため、①発信者情報開示について新たな裁判手続(非訟手続)を創設し特定の通信ログを早期保全すること、②開示対象となるログイン時情報を明確化すること等を内容とする、特定電気通信役務提供者の損害賠償責任の制限及び発信者情報の開示に関する法律(平成 13 年法律第 137 号。以下「プロバイダ責任制限法」という。)の改正を実施し、2021 年4月に改正法が公布された。
民間における取組としては、SIA において設置された有識者会議において、2020 年7月から 2021 年3月までの間に、任意開示の促進に向けた施策の検討が行われ、同年4月に「権利侵害明白性ガイドライン」が策定・公表された。また、同ガイドラインに関する理解を深めるため、プロバイダからの同ガイドラインに関する相談を受け付ける窓口が設置された。同ガイドラインは、プロバイダにおける任意開示の判断に際して参照することで、適切な任意開示の促進につながるよう、プロバイダが容易に名誉毀損が明白であると判断可能な類型を示すとともに、参考となる判例を集積したものである。
また、官民連携のm取組として、コンテンツプロバイダ・アクセスプロバイダ・有識者・専門性や実務的知見を有する者が協力して発信者の特定手法について支援協力を行える体制やノウハウ共有を行う場として、2021 年2月以降、「発信者情報開示に関する実務者勉強会」が継続的に開催されている。
④ 相談対応の充実に向けた連携と体制整備
相談対応の充実に関して、総務省は、2021 年度より、「違法・有害情報相談センター」における相談員の増員等による体制強化を図るとともに、相談件数・内容の更なる分析を実施中である。
また、相談内容に応じて相談機関間(法務局、警察、インターネットホットラインセンター、セーフライン、誹謗中傷ホットライン、消費者生活相談窓口等)で紹介を行うなど、他の相談機関との連携対応の充実を図っている。
地方公共団体においては、人権侵害への取組が重要課題であり、独自の相談窓口が設けられている地方公共団体も存在する。例えば、群馬県は 2020 年 12 月に「インターネット上の誹謗中傷等の被害者支援等に関する条例」を制定・施行し、「被害者への支援」及び「県民のインターネットリテラシー向上」に向けた対策を行うこととしている。「違法・有害情報相談センター」は、群馬県インターネット上の誹謗中傷相談窓口に対して、研修会の実施や、問い合わせを受け付ける体制の整備などの連携を行っている。その他、全国の地方公共団体におけるインターネット関連の啓発資料への同センターの掲載やホームページへの URL 掲載等を実施した。
さらに、総務省では、ユーザにとって分かりやすい相談窓口の案内を実施するため、インターネット上の誹謗中傷に関する複数の相談窓口に係る案内図を作成し、2020 年 12 月に公表した。その後、案内図を様々な方法で全国に周知を実施している。
2 プラットフォーム事業者等による対応のモニタリング結果
(1) モニタリングの概要
主要なプラットフォーム事業者における誹謗中傷等への対策状況について、サービス概要とポリシー、削除等の対応、削除要請や苦情に関する受付態勢・プロセス、発信者情報開示への対応、その他の取組及び情報分析・公開に関して、ヒアリングシートに基づく回答を求め、モニタリングを行った。
モニタリングにおける主な論点は以下のとおり。
- プラットフォーム事業者の削除等の取組が適切に行われているかどうかについて、主な評価項目に関して、透明性・アカウンタビリティの確保が図られているか。
- 特に、海外事業者において、諸外国で行われている取組は我が国においても行われているかどうか。
- AI を用いた削除対応が行われているか。
- 過剰な削除や不当なアカウント停止等の行き過ぎた対応が行われていないか。
- 各事業者や事業者団体における啓発活動は十分か。
- 削除以外の対策(事業者の創意工夫による対応)が行われているか。
- 誹謗中傷等の流通状況に関する分析・調査や、研究者への情報提供が行われているか。
本年については、このヒアリングシートに基づき、本研究会において以下のとおりモニタリングを行った。ヒアリングシートの内容の詳細については、参考3の通りである。
- 2021 年2月 25 日 本研究会(第 23 回)
ヤフー、Facebook、Google、LINE、Twitter、SIA、SMAJ
(2) モニタリング結果
① 総論
モニタリングの結果、プラットフォーム事業者の誹謗中傷等への対応に関する透明性・アカウンタビリティ確保状況には差異が見られた。
ヤフー・LINE は、我が国における誹謗中傷への対応について、具体的な取組や定量的な数値を公表しており、透明性・アカウンタビリティ確保に向けた取組が進められている。
Google は、一部、我が国における定量的な件数が新たに示されているが、構成員限りで非公開となっている情報も残されており、部分的に透明性・アカウンタビリティ確保に向けた取組が進められている。
Facebook・Twitter は、グローバルな取組や数値は公表しているが、我が国における具体的な取組や定量的な数値を公表しておらず、我が国における透明性・アカウンタビリティ確保が果たされていない。
② 各論
主な評価項目(質問項目【★】箇所)に関する各事業者の取組状況は以下のとおり。
また、ヒアリングの質問項目について、事業者が「回答を控えた理由」及び「今後の対応方針」は以下のとおり。
ア 主な評価項目関係
主な評価項目に関する各事業者の状況は以下のとおり。
誹謗中傷等に関するポリシーについて(1.③(i)(ii)関係)
すべての事業者において、誹謗中傷を含む一定の類型について禁止規定を定めており、削除・警告表示・アカウント停止等の対応を規定し公表している。
日本における削除要請件数や削除件数について(2.①②③関係)
ヤフー・LINE については、2020 年7月の本研究会(第 19 回)でのヒアリングシートと比較して、我が国における一般ユーザからの申告に関する定量的な件数が新たに示されているなど、透明性・アカウンタビリティ確保に向けた取組を進めている。
Google は、2020 年7月の本研究会(第 19 回)でのヒアリングシートと比較して、一般ユーザからの申告に関する件数など、一部、我が国における定量的な件数を新たに示しているが、構成員限りで非公開となっている情報も残されており、現在、日本向けデータ公表のフォーマットについて検討中である。
Facebook・Twitter は、2020 年7月の本研究会(第 19 回)でのヒアリングシートと比較して、新たな情報を示していない。グローバルでの数値は公表しているものの、我が国における一般ユーザからの申告に関する定量的な数値は示していない。
一般ユーザからの申告や削除要請に対応する部署・チームの規模・人数や、日本国内の拠点・責任者について(3.①④⑤関係)
すべての事業者において、一般ユーザからの申告・削除要請への受付窓口・受付態勢、対応プロセスが整備されている。ただし、対応する部署・チームの規模・人数や、日本国内の拠点・責任者についての公開状況には差が見られる。
ヤフー・LINE は、我が国における態勢について、定量的な数値により示している。なお、ヤフーは LINE と比較してより詳細な態勢を示している。
Facebook・Google は、グローバルな態勢については公表しているものの、我が国における具体的な態勢を示していない。
Twitter は、日本及びグローバルな態勢について、ともに情報を公開していない。
発信者情報開示の件数について(4.①②関係)
ヤフー・LINE は、我が国におけるプロバイダ責任制限法における発信者情報開示請求に関して、裁判上/裁判外それぞれの請求件数及び開示件数を公表している。
Facebook・Google・Twitter は、我が国におけるプロバイダ責任制限法における発信者情報開示請求に関する数値を公表していない。
取組の効果分析について(5.③関係)
ヤフーは、AI を活用した取組に関して、我が国における取組の効果分析を定量的に示している。
LINE は、サービス上の取組の効果分析を示していないが、相談対応事業の取組の実施件数を示している。
Facebook・Google・Twitter は、取組の効果分析を公開しているが、グローバルの数値であり、我が国における数値を公開していない。
透明性レポートについて(6.③関係)
ヤフーは、現時点では作成・公開しておらず、夏頃公開予定としている。
LINE は、日本語による透明性レポートを公開しており、我が国における一般ユーザからの申告に関する件数及び司法機関・行政機関からの要請に関する件数を公表している。
Google・Twitter は日本語による透明性レポートを公開しているが、一部を除き、グローバルの数値のみを公開している。
Facebook は、日本語によるコミュニティ規定施行レポートを公開しているが、すべてグローバルの数値であり我が国における数値は公開していない。
イ AI を用いた削除対応関係
主な評価項目以外の項目に関して、AI を用いた削除対応が行われているかという観点については以下のとおり。
AI 等を用いた削除対応について(2.④関係)
各事業者において、積極的に AI を活用した削除等の取組が進められている。
ヤフーは、「Yahoo!ニュース コメント」において 2014 年から機械学習による不適切投稿への対応を開始した。AI による検知を通じて、1 日平均約 29 万件の投稿のうち、約 2 万件の不適切な投稿(記事との関連性の低いコメントや誹謗中傷等の書き込みなど)の削除を実施している。Facebook は、AI を活用して不適切なコンテンツを検出している。AIは、コンテンツレビュアーがレビューするケースに優先順位をつけて、最も有害で時間的な問題のあるコンテンツを最初に処理できるようにしている。
Google は、機械学習を活用して不適切なコンテンツを検出している。有害なコンテンツのほとんどがシステムによって一度も視聴されずに削除されている。
LINE は、機械的なチェックにより、禁止用語やルールと照合し、規約や法令に反した投稿かどうか確認し、自動で非表示化している。全サービスにおいて、わいせつ、出会い系、不快画像等について、AI を活用した「違反画像」を検知している。
Twitter は、テクノロジー(PhotoDNA、社内の独自ツールなど)を活用し、違反コンテンツを特定している。
ウ 過剰な削除や不当なアカウント停止の防止関係
主な評価項目以外の項目に関して、過剰な削除や不当なアカウント停止等の行き過ぎた対応が行われていないかという観点については以下のとおり。
不正な申告や削除要請への対策の方法・仕組み、対応件数について(2.⑤関係)
一部事業者から不正な申告や削除要請への対策の方法・仕組みについて回答があった(ヤフーは、すべて人の目で内容を確認、Facebook は、システムの悪用(大量の報告)を防ぐため重複報告を認識する技術を導入)。濫用的な報告に関する定量的な件数については、LINE のみが数値を公表している。
対応決定時における通知の内容、理由の記載の程度について(3.②③関係)
すべての事業者において、システム上可能な場合には対応決定時において報告者や利用者に通知を行っている。理由の記載の程度については、濫用防止を理由に削除可否について詳細な理由を伝えることはできないといった回答や、どのガイドラインに抵触したかについての情報を記載しているといった回答があった。
削除等への苦情や問い合わせに対する苦情受付態勢及び苦情処理プロセス、それらに係る件数について(3.⑥⑦関係)
ヤフーは、削除されたユーザからの専用窓口の設置や削除理由の開示フローなどについて検討を進める予定としている。
Facebook・Google・Twitter は、削除等の対応についてシステム上異議申立が可能となっている。特に、Google では、YouTube における削除対応に関して、投稿者に対して再審査を請求するための手順が記載されたリンクを提供し、再審査は最初の削除判断を行った審査担当者とは異なる担当者によって行われるといった工夫が行われている。
LINE は、異議申し立てについて適宜対応することとしている。
なお、すべての事業者において、一度決定が行われた後に異議があった詳細な件数等については公開していない。
エ 啓発活動
主な評価項目以外の項目に関して、各事業者や事業者団体における啓発活動は十分かという観点については以下のとおり。
普及啓発について(5.①関係)
各事業者や事業者団体において、自らのサービスのガイドの公開や、情報モラル教育等、様々な啓発活動が行われている。
ヤフーは、サービスの理解を深めるための各種ガイドをウェブサイトで公開している。各ガイドでは削除される投稿例の追記などを行い、ユーザの理解を推進し、コメントポリシーの遵守を呼びかける文言を投稿ページの目立つ位置に表示している。
Facebook は、サービスの理解を深めるための各種ガイドをウェブサイトで公開している。いじめ防止やオンラインでの嫌がらせなどのリソースを提供するプログラム「みんなのデジタル教室」を公開している。また、特定非営利活動法人企業教育研究会の協力のもと、デジタルリテラシーに関する授業を提供しているほか、若年層の利用者やクリエイターと一緒に安全な利用を考える取組「#インスタ ANZEN カイギ」を実施している。
Google は、無料のデジタルスキルトレーニングプログラム「Grow with Google」を実施している。その他、各種オンライン教材や、サービスの理解を深めるためのウェブサイト「YouTube のしくみ」を公開している。また、ネット利用に関する調査結果を「中高生インターネット利用白書2021」として公開し、オンライン教材を拡充している。
LINE は、サービスの理解を深めるための各種ガイドをウェブサイトで公開している。全国の学校や地方公共団体に講師を派遣するワークショップ授業・講演活動等を 2012 年から累計で約 10,000 回以上実施している。また、LINE みらい財団では、研究者共同で、独自の情報モラル教育教材の開発を行い、ウェブサイトで公開している。
Twitter は、サービスの理解を深めるためのガイドをウェブサイトや公式アカウントで公開している。UNESCO と合同でメディア情報リテラシーのハンドブック「Twitter を活用した教育と学習」を作成している。また、悩み相談を行う NPO への無償広告枠提供等を通じた支援を行っている。
一般社団法人ソーシャルメディア利用環境整備機構(SMAJ)は、法務省人権擁護局・総務省と共同で、SNS のより良い利用環境実現に向けたスローガンである「#NoHeartNoSNS」を発表している。特設ウェブサイトを開設し、被害を防ぐ仕組みや相談先を掲示し、会員社による周知を実施している。また、SMAJ のウェブサイトにおいて、会員社が運営するサービスについて、統一されたフォーマットにより、サービスの概要、利用上の注意点、ユーザを保護する機能を紹介している。
オ 削除以外の対策(事業者の創意工夫による対応)
主な評価項目以外の項目に関して、削除以外の対策(事業者の創意工夫による対応)が行われているかという観点については以下のとおり。削除以外の対策(事業者の創意工夫による対応)について(5.②関係)ユーザ自らが他のユーザのアカウントやコメント等を非表示・ブロックする機能については、多くのサービスですでに導入されている(ヤフー・Facebook・LINE・Twitter)。
投稿内容について投稿時等に再考・再検討を行う機会を設ける機能(ヤフー導入済、LINE 検討中)、ユーザの選択に応じたコンテンツフィルタリング機能(Facebook・Twitter)、返信相手を選択できる機能(Facebook・Twitter)などについては、一部のサービスで導入が進められている。その他、サービスの性質に応じた様々な仕組みが設けられている。
上記の仕組みにより誹謗中傷全般について対応できる可能性はあるものの、一定の短期間の間に大量の誹謗中傷が集まった場合に対応する特別な仕組みを導入している例は見られなかった。
各社の具体的な取組は以下のとおり。
ヤフー:自身の選択により書き込みや利用者の非表示・ブロック、低品質投稿の機械的検出と折りたたみ表示(知恵袋)、AI を活用した投稿時における注意メッセージの掲出(ニュースコメント、2020 年度開始)、一度投稿停止措置を受けたユーザが再度アカウントを作成した場合の投稿制限等
Facebook:自身の選択により書き込みや利用者の非表示・ブロック、タグ付けや返信等を許可する相手を選択する機能、ブロックした人の別アカウントによる望まないやりとりの自動検知・防止、ポジティブなコメントを固定、不適切なコメントを自動的に非表示するフィルタ機能
Google:利用規約上ボーダーライン上のコンテンツ等をおすすめ機能
に表示しない機能
LINE:自身の選択により書き込みや利用者の非表示・ブロック、18 歳未満のユーザ検索機能制限、誹謗中傷やスパムなどについて AI を活用して検知し投稿前に警告する機能を開発中(2021 年下半期までに全てのサービスに実装予定)、一般社団法人全国心理業連合会と連携した無料相談窓口(心のケア相談)の開設
Twitter:自身の選択により書き込みや利用者の非表示・ブロック、返信できるユーザの範囲を選択する仕組み、センシティブな内容を非表示にするフィルタ機能(セーフサーチ)
カ 分析・調査
主な評価項目以外の項目に関して、誹謗中傷等の流通状況に関する分析・調査や、研究者への情報提供が行われているかという観点については以下のとおり。
誹謗中傷等の流通状況に関する分析・調査について(6.①関係)
一部事業者から、有識者との意見交換や、内部での分析・検討が行われているという回答があった。分析結果については、透明性レポート等により公開している事業者が見られた。
研究者への情報提供について(6.②関係)
Twitter からは、無償の学術研究プロダクトトラックによる研究者へ
の情報提供が行われているとの回答があった。その他の一部事業者から
は、外部有識者との連携が行われているという回答があった。
(3) 事業者団体等のその他の取組
業界団体等の取組により、ノウハウやベストプラクティスを事業者間で共有されているかという観点については以下のとおり。
ヤフーは、不適切コメントへの対策として導入している AI の API を他社に対して無償提供し、業界全体の不適切投稿の削減につなげようという取組を行っている。
SIA は、前述のとおり、「誹謗中傷ホットライン」を運営し、被害者からの誹謗中傷に関する連絡を受け付け、他の事業者に対し、各社の利用規約に沿った削除等の対応を促す通知を行っている。
SMAJ は、SMAJ 会員各社の SNS 等のサービスにおいて、名誉毀損や侮辱等を意図したコンテンツを投稿するなどの行為を禁止し、利用規約に記載するとともに、禁止事項について啓発広報を実施することを推進している。禁止行為への対応の実効性向上のため、これまで各事業者が実施してきたソーシャルメディアにおける課題に対する取組を体系化した「ユーザー保護ナレッジデータベース」の構築等を通じて、継続的かつ実効性のある利用者保護施策を検討・実施している。
3 海外動向
欧州や米国における諸外国の政策動向として、我が国と同様に、プラットフォーム事業者の違法・有害情報対策に関する透明性やアカウンタビリティ確保を求める方向性で検討が進められている。ただし、透明性・アカウンタビリティ確保の方法論として、法的規制によるか否かでは差異がある(欧州では法的規制の検討が行われている)。
また、欧州のうちドイツやフランスなど一部では立法によりプラットフォーム事業者に対して削除の義務付け等の法的規制が導入・検討されているが、表現の自由への萎縮効果の懸念の声があがったり、立法後に違憲判決により当該規定が削除されたりするといった状況となっている。
(1) 欧州連合(EU)
2020 年 12 月、欧州委員会は Digital Services Act (DSA)の法律案を公表。DSA は全ての仲介サービス提供者(プラットフォーム事業者等)に対して、違法コンテンツの流通に関する責任を規定するとともに、事業者の規模に応じたユーザ保護のための義務を規定している。
対象事業者は、仲介サービス(ISP 等)、ホスティングサービス、オンライン・プラットフォーム(オンラインマーケットプレイス、アプリストア、SNS 等)、超大規模オンラインプラットフォームを提供する事業者となっている。
仲介サービス提供者の違法コンテンツに対する責任について、「単なる導管」、「キャッシング」、「ホスティング」の 3 類型に分けて違法コンテンツに対する免責条件を規定している。一般的モニタリング義務は無いものの、司法及び行政当局からの削除等の措置命令・情報提供命令への報告義務を規定している。
透明で安全なオンライン環境のため、事業者の希望に応じて、具体的に以下の義務を規定している。
- 全ての仲介サービス提供者に対する義務:コンテンツモデレーション措置を定めた利用規約の公開、透明性報告義務、連絡窓口・国内法定代理人の設置等
- ホスティングサービス提供者の義務:違法コンテンツの通知受付態勢整備、違法コンテンツへの対応に関する理由の通知等
- オンライン・プラットフォームの義務:違法コンテンツへの対応に関する苦情受付態勢整備、裁判外紛争解決機関の利用、信頼された旗手(trusted flagger)、不正な通知・反論に対する対策、オンライン広告の透明性確保等
- 超大規模オンライン・プラットフォームの義務:サービスのリスク分析・評価の実施、リスク軽減措置の実施、外部監査の実施・公表、レコメンダー・システム、オンライン広告の透明性の追加、規制当局及び研究者のデータアクセス、コンプライアンス・オフィサー設置、行動規範、危機対応等
モニタリング及びエンフォースメントに関して、各加盟国は DSA の執行責任者であり調査権限等を持つデジタルサービス調整官を設置しなければならないとされている。欧州委員会は超大規模オンライン・プラットフォームに対してモニタリングを行い、義務違反の場合、前年度の総売上高の最大 6%の罰金等を科すことが可能となっている。
(2) 英国
2019 年 4 月、デジタル・文化・メディア・スポーツ省(DCMS)と内務省が共同で「Online Harms White Paper」を作成し、公表した。英国における安全なネット環境の確保を目的とした将来の政府の対策を明示している。主な内容は以下のとおり。
- オンライン上の有害コンテンツ・行為への対処を求めることを目的とする法定の注意義務を策定し、プラットフォーム事業者は、当該注意義務を遵守することが求められる。
- 注意義務が遵守されているか監視・評価するために、罰則や罰金等の執行権限を持つ独立規制機関を設置する。
- 規制機関は、設定された注意義務の履行・遵守方法を概説したものを行動規範として作成・提示する。プラットフォーム事業者は、行動規範に規定されているガイドラインに従うか、あるいは自社の代替アプローチがどの程度効果的に同等以上の影響をもたらすかを説明し、正当化する必要がある。
2020 年 12 月、Online Harms White Paper のパブリックコメント結果に対する政府の完全な対応を公表した。主な内容は以下のとおり。
- 対象とする情報の範囲については、白書の案と同様に、違法なコンテンツだけでなく、違法ではないが有害なコンテンツも規制する。ただし、具体的な有害なコンテンツ・行為は示さず、有害なコンテンツや活動の一般的な定義(オンライン上のコンテンツ・行為が、個人の身体的または心理的に重大な悪影響を及ぼすと合理的に予見可能なリスクを生じさせる場合)を規定しており、これに該当する誤情報・偽情報も範囲に含むと規定している。
- サービスの規模等に応じた段階的な規制(低リスクのサービスに対する免除を導入、リスクが高くリーチ力のある少数のサービスをカテゴリー1と分類し、当該サービスを提供する企業の規制を強化)を規定している。
- 執行機関については、OFCOM がその役割を担う。2021 年5月、オンライン安全法案のドラフト(draft Online Safety Bill)を公表した。
(3) ドイツ
ドイツ国内の登録者数が 200 万人以上のソーシャルネットワーキングサービスは、「ネットワーク執行法」(2017 年 10 月発効)に基づき、透明性レポートを半年に 1 回公開する義務がある。ネットワーク執行法に基づく透明性レポートでは、違反報告数、削除件数、違法な投稿の防止のための取組、報告への対応に関する社内態勢などの事項等について記載が求められる。
削除の要否等について各事業者で判断しかねる事例については、認定自主機関(FSM)に相談して、判断を委ねる仕組みとなっており、2020 年には13 件の相談があった。
連邦司法庁は、コンテンツが削除されなかったことが「制度上の機能不全」に基づく場合に、秩序違反が認められるとの判断を行う。過料の執行事例としては、Facebook の 2018 年上半期の透明性レポートについて内容に不備があるとの理由により、Facebook に 200 万ユーロの罰金支払いを科した。
2020 年 9 月に閣議決定された同法の評価レポートでは、法の目的はかなりの程度で達成されており、プラットフォーム事業者の違反報告の管理と公的説明責任が大幅に改善されたこと、規則の詳細な実行はまだ不十分であるが、法の構造的な脆弱性によるものではなく、プラットフォーム事業者による実施の部分的な不十分さによるものであること等が挙げられた。また、法による過剰な削除(オーバーブロッキング)の懸念については、現時点ではオーバーブロッキングの兆候は認められないが、その危険については、常に、また、将来においても真摯に考慮しなければならないこと等が挙げられた。
2021 年4月に、SNS 事業者に対し、特定の重大事案について、投稿を削除するのみならず、犯罪構成要件に該当する投稿内容及び投稿者に割り振られた IP アドレス等について捜査機関に通報する義務を課すネットワーク執行法の改正法が施行された。
(4) フランス
2020 年 5 月に、オンライン・ヘイトスピーチに対処することを目的として、インターネット上のヘイトコンテンツ対策法が議会で可決されたが、憲法院に付託され合憲性の審査が行われた結果、コンテンツの過剰削除を促進する可能性があるとして、大半の条項が違憲とされた。その後、違憲とされた条文を削除する形で 2020 年6月に同法は公布・施行された。
改正法の原案では、
- ①違法コンテンツの削除等(コンテンツ編集者・ホスティング事業者に対し、テロの扇動・称揚や児童ポルノ拡散に係る違法コンテンツについて、行政機関からの通知受領後 1 時間以内の削除又はアクセス不能化を義務付け)
- ②罰金額引上(上記①や違法コンテンツ対策に関するプロバイダの既存の各種義務に違反した者に課す罰金の額を 7 万 5000 ユーロから 25 万ユーロ(法人の場合は最大 125 万ユーロ)に引き上げ)
- ③違法コンテンツの削除等(オンライン・プラットフォームに対して、ヘイトスピーチ等を含む明らかな違法コンテンツについて、通報から24 時間以内の削除等を義務付け、当該義務に違反した者に 25 万ユーロの罰金)
- ④オンライン・プラットフォームへの命令・罰金(視聴覚高等評議会(CSA)は、 ヘイトスピーチ等に関する明らかな違法コンテンツのオンライン拡散対策に係る各種義務を遵守させるため命令を行うことができ、従わない場合に最大で 2,000 万ユーロ又は前年度世界年間売上高の 4%のいずれか高い方を超えない額の金銭的制裁を科すことができる)
といった4つの内容が規定されていたが、①・③・④について違憲判断が下され、条文が削除された。
(5) 米国
通信品位法(1996 年)第 230 条では、プロバイダは、①第三者が発信する情報について原則として責任を負わず、②有害なコンテンツに対する削除等の対応(アクセスを制限するため誠実かつ任意にとった措置)に関し、責任を問われないとされており、プロバイダには広範な免責が認められてきた。
近年、プラットフォーム事業者が米国議会の公聴会に出席を求められ、インターネット上の違法・有害情報対策及び通信品位法 230 条に関して議論が行われている。
共和党政権時代には、プラットフォーム事業者の政治的偏向や、政治的発言に対する検閲への懸念から、2020 年5月にトランプ大統領(当時)が、「プラットフォーマによるオンラインの検閲の防止に係る大統領令」に署名した。オンライン上の言論の自由を確保するため、プラットフォーム事業者による、恣意的なユーザ投稿の削除等を限定する方向の規制の提案や明確化を連邦通信委員会(FCC)に要請するよう、国家電気通信情報庁(NTIA)に指示を行った。その後、FCC では同法 230 条の改正について検討が行われていたが、2021 年 1 月、FCC はトランプ元大統領の選挙敗北を受けて方針を変更し、同法 230 条を明確化する意向は無いと表明した。
他方、民主党では、テクノロジー企業のモデレーションの欠如と、フェイクニュースや違法・有害コンテンツの発信・拡散に対して同法第 230 条
が提供する広範な免責規定について懸念が示されている。
2021 年 1 月、大統領選挙結果を巡り、トランプ大統領(当時)の支持者らが米連邦議会議事堂を襲撃する事件が発生した。これを受けて、プラットフォーム事業者各社は、トランプ大統領の行為が暴動を煽ったとして、トランプ大統領の関連アカウントの凍結を行った。加えて、アプリマーケット事業者やホスティング事業者は、トランプ大統領の支持者が利用するSNS サービスに対して、アプリの利用停止やサーバの利用停止などの措置を取った。