4月は、入学や進級・進学など、生活上の変化の多い季節です。入学祝いにスマホをおねだりされた親御さんも中にはいらっしゃるのではないでしょうか?
子どもによるSNSの利用は、これまで世界各国で活発に問題点や課題が指摘されており、現在、急速に法規制が進んでいる領域のひとつとなっています。SNSプラットフォーマーは、利用者の継続的な利用の促進、好みのコンテンツへのアクセシビリティの改善、顧客体験の向上を図るため、日々設計やアルゴリズムをアップデートしています。
一方でSNSプラットフォーマー各社によるこれらの商業的な活動は、子どものスクリーンタイムを急増させ、有害なコンテンツに触れる機会を提供し、SNS上での同調圧力、いじめ、グルーミング被害の一因となり、それらの弊害はオンライン上にとどまらず、子どもの実生活の人間関係にも密接に関連し、心身の健康に重大な悪影響を与えている、との批判を受けています。
企業側が対策の検討にこれまで積極的ではなかった事実も相まって、単なる批判の域を超え、具体的な対応を企業側に義務付ける法規制として、現在、目に見える動きになってきています。
今回は、急速に法制化が進む、子どものプライバシー保護に関する各国の法規制の動向と今年予定されている日本の個人情報の保護法への影響について、見ていきたいと思います。
目次
子どものSNS利用の法規制は新たなステージに
2024年11月28日、「オンライン安全改正法(ソーシャルメディア最低年齢)2024(The Online Safety Amendment (Social Media Minimum Age) Act 2024)」がオーストラリアの連邦議会で可決され、日本でも報道各社がニュースとして大きく取り上げました。
オンライン安全改正法(ソーシャルメディア最低年齢)2024の成立
大きな話題となった理由のひとつは、世界各国で制定されている子どもに関するプライバシー保護関連の法律は、利用に際して「保護者の同意取得」を必要とする、と取り決めているものが大半である中で、オンライン上の安全とリスクについて国民を教育し、子供たちの安全を守り、有害なコンテンツから保護するため、「特定のカテゴリのSNSサービスの利用開始年齢を16歳以上とする」と法令で定めたためです。
単なる努力義務にとどまらず、アカウントを作成させないための合理的な措置を企業に義務付ける内容は、子どものオンライン上のプライバシー保護に関連する法規制が、新たなステージに進んだことを印象付けました。
同法は、2025年末までの施行が予定されています。
【参考】Social media reforms to protect our kids online pass Parliament
法規制の目的と概要
目的:子どもの心身の健康を守るため、過度なSNS利用や有害なコンテンツからの保護を図る。
規制対象の機能:アカウントを作成して利用するサービスで、コンテンツの投稿や閲覧、他者との交流を目的とし、投稿された他者のコンテンツにコメントやリアクションする機能があり、リールやフィードなどでプラットフォーム側から情報提供されるサービス。
規制対象とされるSNSプラットフォームの例:Facebook、Instagram、TikTok、Snapchat、X(旧Twitter)など
対象年齢:16歳未満の利用者
尚、以下のサービスはSNS以外の用途が主とされ、今回の規制では対象外とされています。
メッセージングアプリ:WhatsApp、Messengerなど。
教育・健康関連アプリ:Headspace、Kids Helpline、Google Classroom、YouTubeなど。
オンラインゲーム:主にゲームのプレイを目的としたもの。
SNSプラットフォーマー各社は、同法に重大な懸念、法制化のプロセスに異議を表明するなど、実施方法やその影響については、今後も議論が続くと想定されます。一方でオーストラリア国民の支持率は非常に高く、2024年11月に実施された世論調査でも、実に約77%の国民に支持されています。
【参考】Support for under-16 social media ban soars to 77% among Australians
SNSプラットフォームは、誰もが情報発信できるがゆえに、たとえ利用者が子どもであっても、基本的には大人が閲覧するのと同じコンテンツが閲覧できてしまいます。この高い支持率は、多くのオーストラリア国民が、未成年のSNS利用に対する規制の強化が、子どもの安全と健全な成長に必要であると考えていることを示していると言えるでしょう。
オンライン安全改正法2024の法規制の内容と罰則
オーストラリア当局は、16歳未満のSNS利用を制限するために、SNSプラットフォーマー各社にどのような対応を義務付けようとしているのでしょうか?詳しく見てみましょう。
法規制の内容と罰則
内容:SNSプラットフォームは、16歳未満の利用者がアカウントを作成・保持できないよう「合理的な措置」を講じること。年齢確認については、パスポートや運転免許証などの公的なIDの提出を強制せず、代替手段を提供すること。年齢確認のために収集したデータは、使用後に速やかに削除すること。(違反時には、プライバシー法に基づく罰則が適用。最大で5,000万豪ドル)
罰則:違反した場合、最大で4,950万豪ドル(約45億円)の罰金を課される可能性があります。
違反時に高額な罰金を課すことにより、SNSプラットフォーマー各社へ法令順守を強く求める内容となっています。一方で、具体的な年齢確認の方式について明確な規定がなく、政府は、年齢確認のための技術的手法を評価中で、2025年中に試験運用を行う予定です。
オンライン安全規制機関であるeSafety Commissionerは、試験運用の結果を受け、SNSプラットフォームが講じるべき「合理的な措置」についてガイドラインを策定するとしています。
この先進的な取組みが、近い将来、子どものプライバシーと安全の保護を目的としたSNSの利用制限のグローバルスタンダードとなるのか、今後の動向が注目されます。
【参考】オーストラリアの独立したオンライン安全規制機関(eSagety Comissioner)
米国の子どものSNS利用やプライバシー保護の法規制の状況
SNS発祥の国、米国では、子どものプライバシーや安全の保護、SNSの利用制限に対して、どのような法規制があるのでしょうか?
施行されている連邦法
米国で施行中の子どものオンライン上のプライバシー保護に関する連邦法は、現在ひとつしかありません。COPPAは、2000年の施行からすでに25年が経過しており、技術革新や爆発的に増加しているオンラインサービスに対して、連邦レベルでの法整備が追い付いていない状況が見てとれます。
Children’s Online Privacy Protection Act(COPPA)
成立:1998年(施行:2000年)
内容:企業は、13歳未満の子どもから個人情報を収集するには保護者の明確な同意を必要とする。収集可能な情報は、氏名、住所、電話番号、メールアドレス、位置情報、IPアドレス、ユーザ名などのいわゆる個人データ。
義務:子どもから収集した情報の利用目的の開示、保護者への通知と同意の取得、データの安全管理義務、不要データの削除、保護者に対する収集情報の確認・削除する権利の提供。
対象サービス:ウェブサイトやオンラインサービス(アプリ、ゲーム、SNS等)
対象年齢:13歳未満
審議中の法案
現在、米国の連邦議会では、子どものオンライン上のプライバシー保護に関する複数の法案が審議されています。ただし、2025年4月時点でいずれもまだ成立には至っていません。
Kids Online Safety Act(KOSA)
2024年7月に超党派の賛成を得て上院を通過しましたが、下院では成立しませんでした。2025年1月に法案が再提出されています。
【参考】What to know about the Kids Online Safety Act that just passed the Senate
目的:未成年ユーザにとって「有害なコンテンツ」からの保護
内容:有害なコンテンツへのアクセス制限、デフォルトでの安全設計(位置情報非公開、メッセージ送受信の制限、商業的なアルゴリズムの制限)、保護者の管理機能強化(子どものアカウント設定や活動履歴の管理権限の提供)、年齢確認とプライバシーの保護
罰則:違反した企業には、罰金やサービス制限などが科される可能性があります。
適用されるサービス:SNSや動画プラットフォーム
対象年齢:未成年(18歳未満)
COPPA 2.0(Children and Teens’ Online Privacy Protection Act)
2024年7月に超党派の賛成を得て上院を通過しましたが、下院では成立しませんでした。2025年1月に法案が再提出されています。
【参考】COPPA 2.0 Reintroduced – What You Need to Know
目的:現在施行されているCOPPAを改訂する法案で、子どものオンライン上のプライバシー保護の強化を目的とする。
内容:行動ターゲティング広告の全面禁止、消去ボタンの導入(保護者が子どものオンライン上の個人情報を消去できる機能)。
義務:プラットフォームにデフォルトでの非追跡モードを義務付け。
対象年齢:13歳未満から16歳未満に引き上げ。
Kids Off Social Media Act(KOSMA)
2025年1月に法案が提出されました。現在、審議中となっています。
【参考】The Kids Off Social Media Act Misses the Mark on Children’s Online Safety
内容:ソーシャルメディアアカウントの作成・保持を禁止。17歳未満のユーザに対するアルゴリズムによるレコメンドの禁止。学校内でのソーシャルメディアの使用制限とフィルタリング技術の使用の義務付け。
米国では、SNS利用の年齢制限や子どもに対する商業上のアルゴリズムによるレコメンドの禁止など、一歩進んだ法規制については、州レベルでの対応が先行しています。
ユタ州、テネシー州、ニューヨーク州、ルイジアナ州、メリーランド州などで、2024年夏ごろから2025年現在にかけて、次々と州法が成立しています。一方で、オハイオ州、カルフォルニア州、アーカンソー州などでは、同様の法律が連邦裁判所によって差し止めをされています。
連邦レベルでも成立しなかった法案がすぐさま再提出されるなど、法制化に対するモチベーションは高く、多くの保護者団体や教育関係者がSNSが与える子どもの心身の健康への悪影響を懸念している状況が見てとれます。
一方でサービスを提供する企業側としては、年齢確認やアルゴリズムの制限が公権力による検閲や表現の自由の侵害にあたるとして、異議を唱えており、両者のせめぎ合いが続いています。
EUの子どものSNS利用やプライバシー保護の法規制の状況
GDPR発祥の地、EUでは、子どものSNS利用規制やオンライン上のプライバシー保護に関して、どのような法規制があるのでしょうか?
【GDPR(General Data Protection Regulation)】
施行:2018年5月
内容:SNSなどが13〜16歳未満の子どもから個人データを収集・処理するには、保護者の明示的な同意が必要(同意が必要とされる年齢は国ごとに異なる)。また、子どもに対するターゲティング広告やデータのプロファイリングは厳格に制限。
対象年齢:16歳未満(ただし、各国が13歳~16歳の間で独自設定可能)
【DSA(Digital Services Act)】
施行開始:2024年2月
内容:違法コンテンツへの迅速な対応(削除や無効化)、リコメンドアルゴリズムとターゲティング手法の透明性の確保、未成年者の保護(ターゲティング広告の禁止、安全性の確保措置)
VLOPsへの追加義務:MAUが4,500万人を超える企業には、外部審査の実施、アルゴリズムの説明責任などの追加義務
罰則:世界全体の年間売上高の最大6%の罰金が課される可能性
対象サービス:SNS・検索エンジン・動画配信などの大規模オンラインプラットフォーム(VLOPs)
対象:EU域内の全ユーザ
技術的な課題と今後の方向性
年齢確認には、現在も「自己申告+保護者のメール承認」などの手法が多く用いられ、容易に虚偽申告が出来るため、依然として承認の真正性に課題があります。EUは今後「EUデジタルID」や「信頼できる年齢認証プロバイダー」の導入を検討しています。
DSAと同時期に施行されたDMA(Digital Markets Act)では、EUが、2025年4月23日に初めて同法違反を適用したことが話題になりました。米国のアップル社とメタ社に対して、合計7億ユーロ(約1130億円)という莫大な制裁金を科しています。
DSAの施行を受け、SNSプラットフォーマー各社は「アルゴリズム無しモードや広告非表示モードの開発・提供」「外部監査」などの対応を迫られています。
【参考】アップルとメタにEUが計7億ユーロの制裁金-デジタル規制違反で
【関連記事】GDPRの制裁金をランキング形式で紹介!法令を遵守したデータ分析方法とは?
日本の子どものSNS利用やプライバシー保護の法規制の状況
日本では、2023年5月に改正プロバイダ責任制限法が施行され、SNSプラットフォーマー各社に対し、誹謗中傷コンテンツの削除手続きを透明化し、利用者からの削除の申出に対して、迅速に対応することが義務付けられました。
一方で、子どものSNS利用の年齢制限やオンライン上のプライバシー保護に関する法規制は、現時点では導入されていません。2025年中に個人情報保護法の改正が予定されており、子どものプライバシー保護についても、改正の論点の一つとなっています。
1. 対象年齢の明確化
16歳未満の子どもを特別な保護対象とし、年齢に応じた適切な規律を適用することが検討されています。
2. 同意取得の強化
16歳未満の子どもの個人情報を取り扱う際には、原則として法定代理人(親権者など)の同意取得や通知を義務付けることが提案されています。
3. 利用停止請求の拡充
16歳未満の子どもに関する保有個人データについて、違法行為の有無にかかわらず、利用停止等の請求を可能とすることが検討されています。
4. 事業者の責務規定
未成年者の個人情報を取り扱う事業者に対し、子どもの最善の利益を優先し、発達や権利利益を害さないよう必要な措置を講ずる責務を設けることが提案されています。
2024年11月にオーストラリアで成立した「オンライン安全改正法(ソーシャルメディア最低年齢)2024」は、子どものSNS利用に制限をかけることの是非について、日本での議論にも大きな影響を与えています。
SNS利用の全面的な禁止に対しては、一方的な規制は社会的な疎外感を助長するなど、子どもの利益を損なう可能性もある、との指摘もあり、慎重な議論が進められています。
【関連記事】GDPRと個人情報保護法の違いとは?日本企業として知っておきたいポイント
誰もが発信できる自由な空間におけるルールのあり方
今回は、世界的な潮流となっている子どものSNS利用やプライバシー保護の法規制の現状について、各国の状況を見てきました。
利用制限をかける年齢や内容、対象サービスなど、取り組みのレベルはそれぞれ異なりますが、保護者の明確な同意や関与を強め、SNSプラットフォーマの義務や責任を強化し、厳罰を強化することで法令順守を促すという方向性は、各国で共通しているようです。
一方で子どもの個人データを用いたターゲティング広告や商業的なレコメンドアルゴリズムなど、いわゆるリールや無限スクロールなど中毒性の高い機能提供の制限、一定の年齢未満の子どもに対するSNSアカウントの作成と保持の禁止など、一歩進んだ規制については、各国の検討・対応状況について、現時点では地域差がある様子が分かりました。
日本では、子どものSNS利用に関する規制については、全面的な禁止ではなく、保護者の関与や事業者の義務や責務を強化する方向で、個人情報保護法の法改正の議論が進められています。2025年中に予定されている法改正の動向や、こども家庭庁などの関連機関によるガイドラインの策定などにも、注視して行きたいところです。
RTmetricsは、法令順守を重視し、適法に収集したデータの活用を推進する企業をサポートしています。どうぞご検討下さい。