オーストラリアで世界で初めて16歳未満のSNS利用を禁止する法律、「Online Safety Amendment (Social Media Minimum Age) Act 2024(以後、SMMA法と記載)」が2025年12月10日に施行され、日本国内のみならず、国際的にも大きな注目を集めました。
16歳未満のオーストラリア居住者は、年齢制限対象となっているSNSでは「アカウントを作成・保有できない」と規定され、法の施行に伴い16歳未満の子ども達が保有する既存アカウントが実際にクローズされるなど、実行を伴う対応が行われました。
「未成年者のSNSアカウントの作成・保有禁止」までなかなか踏み込めなかった国や地域は、最初に法施行に踏み切ったオーストラリアの現状と今後を大いに注視しており、世界各国の近い将来の法制化や議論の進展に大きな影響を与えるものと見られています。
今回は、世界に急速に広がる未成年者のSNSの利用規制の法制化の動きについて、各国の状況を見て行きたいと思います。
目次
Online Safety Amendment (Social Media Minimum Age) Act 2024 の概要

Online Safety Amendment (Social Media Minimum Age) Act 2024
施行日:2025年12月10日
内容
世界初の国家レベルの包括的なSNSの年齢規制法として施行されました。16歳未満は、規制対象のSNSにおいて「アカウントを作成・保有できない」と定義されています。
ログイン不要の公開コンテンツなどの閲覧は、原則として禁止されていないため、オーストラリア政府や規制当局は、「禁止(ban)ではなく、アカウント作成を遅らせる(delay)制度である」と説明しています。
【参考情報】Online Safety Amendment (Social Media Minimum Age) Act 2024
目的
オーストラリア政府は、「16歳未満の子どもは、SNSの設計上のリスクに最も影響を受けやすい発達段階にある」とし、子ども・若年層の安全とメンタルヘルスの保護、特に以下のような問題への対応をSMMA法の目的と位置付けています。
・SNS上のいじめ・嫌がらせ
・性的被害・加害者からの接触
・自傷・摂食障害などの有害コンテンツ
・SNS依存によるメンタルヘルス上の問題、精神的な悪影響
規制の対象となるSNS
2025年12月時点で、年齢制限の規制の対象と明示されている主なSNSは以下のとおりです。いずれも、ユーザ生成コンテンツの共有、拡散、フォロー機能などを備えているサービスとなっています。SMMA法の目的は「SNSの利用によるリスクから16歳未満を守る」ことであり、SNS的な双方向コミュニケーションや拡散機能が弱いサービスについては、規制の対象外とされています。
・Facebook
・Instagram
・TikTok
・Snapchat
・X(旧Twitter) など
以下のサービスは規制の対象外とされていますが、単純なメッセージ機能を提供するサービスであっても、SNS的な公開交流機能が強いとみなされると、将来的に規制対象となる可能性があります。
・単純なメッセージアプリ(例:WhatsApp など)
・オンラインゲーム
・教育・医療・行政サービス
SNSプラットフォーム事業者の義務
SNSプラットフォーム事業者は、16歳未満の利用を防ぐために、以下のような合理的措置(reasonable steps)を講じなければなりません。
・年齢確認・年齢推定の仕組み導入
・不審な未成年アカウントの停止
・継続的な監視・当局への報告
罰則の対象
SMMA法に違反した場合の罰則の対象は、保護者や子ども本人ではなく、SNSプラットフォーム事業者になります。義務違反には、最大で約50億円の制裁金が課される可能性があります。
・子ども本人・保護者:罰則なし
・SNSプラットフォーム事業者:罰則あり
・罰則:最大 約4,950万豪ドル(約50億円)
SMMA法施行と同時に行われた既存アカウント削除の衝撃

SMMA法における16歳未満のSNS利用禁止は、単なる利用停止にとどまらず、16歳未満のユーザが保有していた既存アカウントへの停止や削除といった痛みを伴う、急激なデジタル遮断という社会実装実験の側面があります。16歳未満の子ども達が利用していた既存のアカウントに対して、実際にどのような対応がとられたのでしょうか?
法施行とともに既存アカウントの停止・削除を実行
オーストラリア政府当局は、SMMA法の施行後の1か月間で16歳未満のアカウントを合計で約470万件削除したと発表しています。この数字には、Facebook・Instagram・TikTokなど、主要なSNSが含まれます。
Metaは、SMMA法施行前後の数日間で50万件以上のアカウントを削除したと公表しており、これは、同法への対応として単一企業が行った年齢制限措置としては世界最大規模と報じられています。
【参考情報】Meta blocked nearly 550,000 accounts in first days of Australia’s under-16s social media ban
アカウントの停止・削除は企業の義務
SMMA法では、SNSプラットフォーム事業者に対して、アカウントの年齢確認や16歳未満のアカウントの削除、不正アクセスの防止などの措置を実装する義務を課しており、違反には罰金が科されます。そのため、規制対象となったSNSプラットフォーム事業者においては、アカウント停止・削除等、法令順守の対応が行われました。
Meta(Instagram/Facebook/Treads)
16歳未満のユーザに事前通知、データのダウンロードもしくは、16歳になるまでデータのアーカイブ保存の選択肢を提示。年齢の自己申告およびAIによる行動分析により、対象のアカウントを抽出。年齢確認が完了していないアカウントは一斉に停止・削除を実行しています。
TikTok
新規16歳未満アカウントの作成を遮断、既存アカウントは年齢再確認を実施、行動・申告・推定に基づき段階的に停止・制限を行うなど、段階的・継続的な対応を実施しています。
X(旧Twitter)・Reddit・Twitch・Kick等
自己申告・年齢推定・行動分析により、16歳未満アカウントを停止または削除を実施しています。
Snapchat
16歳未満と判定したアカウントをロック(利用停止)、年齢到達(16歳)まで保存、新規16歳未満アカウント作成を遮断、データのダウンロードを猶予する対応を行い、ロック+将来復帰可能な設計で実施しています。
SMMA法施行後、浮彫りになった課題
SMMA法施行で義務付けられた年齢確認に関しては、多くの課題も指摘されています。年齢確認技術の未成熟や誤判定、VPNや偽情報の入力などによる年齢確認の回避など、完全な強制は困難といった指摘やそもそもApp Store/Google Playといったプラットフォームの基盤技術レベルでの認証が必要との指摘もあり、技術的な課題への検討と対応が継続しています。
また一方で、急激なデジタル遮断が16歳未満の子どもたちの心理的なストレスや深刻な喪失感・孤立感を生むなど、新たなメンタルヘルス上の問題を引き起こす可能性が指摘されています。
SMMA法施行後において、16歳未満の子供たちのメンタルケアを社会全体で中長期的にどのようにサポートしていくかという観点は、新たに生じた社会的な課題と言えます。対応を各家庭に丸投げすることなく、継続的な議論や具体的な対策の実行、継続的な改善が求められています。
【関連記事】個人情報保護法に影響あり?子どものSNS利用に関する各国の法規制の動向
技術的課題、精度を担保した年齢確認はどう実現するのか?

SMMA法では、SNSプラットフォーム事業者にユーザの年齢確認と併せて、プライバシー保護を義務付けています。SNSプラットフォーム事業者は、16歳未満の子どもがアカウントを作成・保有できないようにするために、技術的・運用的に合理的な措置(reasonable steps)を講じなければなりません。
「Age Assurance(年齢保証)」と呼ばれるこの仕組みについて、子どものプライバシーを保護し、セキュリティリスクに配慮し、かつ必要最低限のデータで、具体的にどのような設計や運用で実装するのか、といった観点は、技術的な課題を多く含むテーマとなっています。
認められている年齢保証手法
オーストラリア政府は、特定の年齢確認技術を義務付けることはしないとし、単一手法への依存は原則としてNGの立場をとっています。その上で、複数の手法を組み合わせることを前提に次の3つの類型を認めています。
【参考情報】Social Media Minimum Age Regulatory Guidance
①年齢推認(Age Inference)
既存データから年齢を推測、新たな個人情報の提出を求めない手法
▼具体例
・アカウント作成年
・利用行動(学校時間帯の利用など)
・ネットワーク構造(同年代ユーザとの結びつき)
▼評価
・プライバシー侵襲(個人のプライバシーへの踏込み度合い)が低い
・補助的手段として有効
・単独では精度不足になりがち
②年齢推定(Age Estimation)
顔画像、音声、行動特性などから年齢を推定、正確な生年月日は不要とする実装
▼具体例
・顔写真や動画による年齢推定
・AIによる年齢判定(数年の誤差あり)
▼評価
・有効な手段の一つ
・Yes / No 判定(16歳以上か)に限定すれば比例的(リスクに見合った強度)
・単独利用は誤判定リスクがあるため補完策が必要
▼プライバシー要件
・画像データは即時処理・保存不可
・年齢以外の情報は保持不可
③年齢確認(Age Verification)
公式情報に基づき年齢確認を実施、最も「確実な」手法だが、プライバシーの侵襲性が高い
▼具体例
・政府発行ID(パスポート等)
・金融機関情報(銀行口座連携)
・デジタルID相当手法
▼評価
・認められるが強制は不可
・代替手段を必ず用意する必要あり
▼法定制限
・国民に政府IDの使用を強制することは禁止
・取得した情報は年齢確認の目的に限定し、目的達成後は破棄
年齢確認とプライバシー保護の両立
eSafety(オンライン安全のための独立規制機関)はレイヤード(多層的)アプローチを推奨しています。大多数のユーザは①②の手法で年齢保証が完結し、本当に必要な場合のみ侵襲性の高い③の手法を採ることで、プライバシー侵害のリスクを最小化することができるとしています。
①年齢推認→(疑義がある場合)②年齢推定→(さらに不確実な場合)③年齢確認
SMMA法では、以下は禁止事項とされています。
・政府発行IDの提出の強制
・すべての利用者にID提出を義務づける運用
・年齢確認情報の目的外利用(広告・プロファイリング・行動追跡など)
従って、SNSプラットフォーム事業者は、上記の「③年齢確認」以外の年齢確認手法(①年齢推認もしくは②年齢推定)を必ず実装する必要があります。完璧な年齢確認が求められているのではなく、現実的な年齢確認を子どもの権利やプライバシーに配慮し、実装することが求められていると言えます。
また、事業者は、年齢確認で取得した情報について、次の対応を採らなければなりません。セキュリティリスクへの対応を求められています。
・必要最小限のみ収集
・確認が終わり次第、速やかに破棄
・データの再利用・長期保存を禁止
プライバシー保護の懸念、立場により分かれる評価
SMMA法は、子どものメンタルヘルスや安全を守るための強い措置として法規制を評価する意見がある一方で、年齢確認に伴うデータ提供が新たなプライバシー侵害を生むリスクを懸念する声も広がっており、その評価は国や議論する人たちの立場によって分かれています。
AIを用いた顔認証による年齢推定やバイオメトリクス等の年齢確認技術は、一生変わらない顔などのバイオメトリクスデータと個を紐付けることで強固な個人認証データとして機能するため、将来に渡り子どもの監視リスクを高める点を指摘する意見があります。
また、パスポートや運転免許証のIDなど、個人を特定できるデータを年齢確認だけの目的で事業者が保持することについては、削除の義務付けがあったとしても情報漏えい等のセキュリティ上のリスクを伴い、その是非には疑義の声があります。
SMMA法は、年齢確認は、個を特定することなく、侵襲性の低いデータで、かつプライバシーやセキュリティリスクを極力排除した設計で、実装することを要求していますが、最適解はまだ出ていないと言えます。
さらなるガイドラインの策定や技術標準の整備が待たれるところですが、現時点では各社の自主的な取り組みが先行する状況となっています。
【関連記事】個人情報保護法の順守では不十分?カメラの画像データのプライバシー保護を考察
事業者の法令順守対応とSMMA法への各社の主張

Meta(Instagram / Facebook / Threads)
Metaは、施行前後の混乱を避けるため、施行前から段階的に16歳未満のアカウントの削除に向けた対応を行い、ユーザに年齢確認を求めるプロセスや既存アカウントの審査を実施、16歳未満アカウントの削除や非アクティブ化を進めました。
AIやユーザの提供情報を含む複合的な年齢確認を実施、誤判定についてユーザに注意喚起しつつ、確認の結果、疑わしい場合は、アカウントを一時停止または削除するなどの対応を実施しました。
Instagram Teen Accounts(13〜17歳)では、Parental Supervision機能の利用者に対して、特定の検索行動を検知し、「あなたの子どもが、短時間に複数回、自殺・自傷に関連する検索を試みた」といった抽象化された表現で登録されている保護者の連絡先にアラートを通知する機能を実装する方針を発表しました。
これらは、SMMA法の施行を受けた広範な安全強化策の一部と位置付けられ、年齢確認技術の導入や有害コンテンツの閲覧制限を強化し、法の要請であるSNSプラットフォーム事業者による未成年者保護への対応を進めています。
その上で、プラットフォーム単独での年齢確認には限界があり、本来は、App Store/Google Play レベルでの年齢確認や業界共通の年齢証明基盤が必要であるとの立場を主張しています。
【参考情報】Instagram to alert parents if teens repeatedly search self-harm terms
TikTok
TikTokは、SMMA法が課す義務に対応するため、オーストラリア居住者について、16歳未満と推定・申告されたユーザの新規アカウントの作成をブロックする措置を実装、既存アカウントへの対応を行いました。
年齢に疑義のあるアカウントに対し、生年月日の再確認、行動パターン等を踏まえた年齢推定を行い、16歳未満と判断された場合は、アカウント停止・利用制限、もしくは年齢到達(16歳)まで利用不可としました。
また、2025年〜2026年にかけて、親子アカウント連携や利用時間制限、夜間利用時のアラート機能など、ペアレンタルコントロール機能の実装・拡張を予定しています。これらは、「16歳未満の排除+年齢到達後の安全な利用環境」を両立させるための措置と位置付けています。
その上で、未成年者を保護する目的には賛同し法令は遵守するが、特定のプラットフォームのみを規制対象とする制度設計には反対であり、機能する制度を作るべきであるとの立場を主張しています。
【参考情報】TikTok、保護者向けサポートの強化と10代の子どもたちの健全なデジタル習慣づくりに向けた新たな取り組みを発表
オーストラリアのSMMA法が世界各国に与える影響

SMMA法は「世界初」の試みとして今や大きな影響力を持ち、世界各国で同様の規制の法制化に向けた議論が活性化しています。子どものメンタルヘルスや安全をどう守るのかという課題は各国共通であり、法規制の議論の中で「SNS利用の最低年齢」を検討する動きが急速に広まっています。
いくつか具体例を見てみましょう。
フランス:15歳未満のSNS禁止・施行準備段階
フランス国民議会(下院)は、15歳未満のSNS利用を禁止する法案を2026年1月に主要条項で承認しました。上院の審議も進めており、2026年9月頃の施行を目指していると報じられています。
法案では、15歳未満のSNSへのアクセスを法的に禁止するほか、SNSプラットフォーム事業者に年齢確認や不適合アカウントの停止を義務付け、学校内におけるスマホ規制を高校まで拡張する内容となっています。
【参考情報】French lawmakers vote to ban social media use by under-15s
イギリス:10代300人を対象に実証実験を決定
イギリスでは、SNS利用の最低年齢制限や制限強化について、親や子どもから意見を集める審議を開始しました。2026年3月26日、ソーシャルメディアの禁止やデジタル機器の利用制限について、10代の300人で実証実験を行うことを決定した旨が報道されています。
16歳未満の未成年者のSNS利用について、実証実験と意見公募という実体験に基づいた根拠をもって、法規制の検討材料にする現実的なアプローチが進められています。
【参考情報】ソーシャルメディア禁止やデジタル機器の制限、10代の300人で実証試験 イギリス
ポルトガル:保護者同意付きの制限導入
2026年2月、ポルトガル議会は、16歳未満の子どもはSNS利用を禁止する法案を承認しました。16歳以上は自由に利用可能、13歳から15歳は親の明示的かつ検証可能な同意が必要、13時未満は全面禁止といった段階的な利用規制と保護者の同意のハイブリッドなモデルになっています。
【参考情報】Portugal approves restrictions on social media access for children
スペイン:16歳未満禁止を計画
2026年2月、スペイン政府は、首相が16歳未満のSNS利用禁止案を発表しており、現在、法案準備・審議入りするフェーズにあります。16歳未満のSNS利用を禁止する目的で、すべての主要SNSを対象にアカウント作成を禁止、SNSプラットフォーム事業者に年齢確認を義務づける内容となっています。
【参考情報】Spain plans ban on social media access for children under 16
EUでは、DSA(デジタルサービス法)が2024年2月に施行され、大規模プラットフォーム事業者には、未成年者の保護に向けた対応として、高水準の保護、ターゲティング広告の禁止、リスク評価、レコメンドのアルゴリズムの透明化などの義務が課されています。
DSAでSNSプラットフォーム事業者に対して「どう安全にサービスを提供するか」を規律し、「SNS利用禁止の年齢の線引き」は、各加盟国に委ねる形になっていると言えます。EU議会では、非拘束のSNS利用の最低年齢の統一提案が提出されており、EUの「子どものオンライン安全強化」の方向性が鮮明になっています。
急展開するオンライン上の未成年者保護の動きを注視しよう

2026年、日本においても個人情報保護法の改正がいよいよ行われると見られています。改正に向けた制度改正方針では、子どものデータ保護は「強化の中心領域」として扱われ、16歳未満の個人情報について特別の保護規律が明文化される方向性が示されています。
特に、同意取得の主体を法定代理人に限定することや子どもの最善の利益を優先する責務規定の新設など、EUのGDPRに近い保護水準に段階的に近づいていると見る向きもあります。
オンライン上の子どもの保護に関しては、プロファイリングやターゲティング、過剰な広告からの保護、無限スクロールやアルゴリズム依存症、オンライン上のいじめや有害コンテンツからの保護、SNS利用により受けるメンタルヘルスのケアに至るまで、世界的に議論が短期間で急速に進展しています。
日本でオンライン上でビジネスを展開する事業者としても、この分野における世界の激しい変化を注視しておく必要があるでしょう。