メタ日本法人、インスタで13~17歳の自殺検索繰り返し時に保護者通知機能を年内導入へ
インスタ、自殺検索繰り返しで保護者通知機能を年内導入

メタ日本法人、インスタグラムで若年層の自殺関連検索に保護者通知機能を導入へ

写真共有アプリ「インスタグラム」を運営する米メタ(旧フェイスブック)の日本法人は3月10日、13歳から17歳の青少年が自殺や自傷行為に関する検索を繰り返し行った場合に、保護者へ自動的に通知する機能を2026年内に日本国内で導入する方針を正式に発表しました。この新機能は、若年層のメンタルヘルス保護を強化するための一環として導入されるものです。

保護者通知機能の具体的な仕組みと導入背景

新機能は、インスタグラムの規約上で利用が可能となる13歳から17歳を対象とした「ティーンアカウント」に適用されます。青少年が自殺に関連するキーワードの検索を繰り返し行った場合、保護者に対してアプリ内通知やメールで連絡が送られる仕組みです。ただし、この機能を利用するためには、事前に子供のアカウントと保護者のアカウントを連携させる必要があります。

この保護者通知機能は、既に米国や英国などで導入済みであり、日本ではこれまで未対応でした。世界的にソーシャルメディアが青少年のメンタルヘルスに与える影響が懸念される中、日本でも同様の対策が求められていた背景があります。

Pickt横長バナー — Telegram用の共同買い物リストアプリ

危険コンテンツ閲覧制限機能の拡充も実施

メタ日本法人は同時に、薬物関連の投稿や、脅迫的な言葉遣い、発砲などの危険行為を含むコンテンツについて、13歳から17歳の青少年による閲覧を制限する機能も近日中に導入することを明らかにしました。既に性的な画像や飲酒、喫煙に関する投稿については表示制限が実施されていますが、今回の拡充により、より包括的な保護体制が整うことになります。

これらの新機能は、青少年が安全にソーシャルメディアを利用できる環境を整備することを目的としており、保護者による監視と支援を容易にする設計となっています。

世界的なSNS規制の動向と社会的背景

ソーシャルメディアは友人らと気軽に交流できる利点がある一方で、いじめや自殺を引き起こす要因となる懸念が指摘されており、世界各地で深刻な社会問題となっています。米国では、ソーシャルメディア運営企業の責任を問う訴訟が複数提起されており、プラットフォーム側の対応が求められる状況が続いています。

さらに、オーストラリアでは昨年12月、16歳未満の青少年によるソーシャルメディア利用を原則禁止する法律が施行されるなど、各国で青少年保護を目的とした規制強化の動きが加速しています。メタ日本法人の今回の発表は、こうした国際的な潮流を受けた対応の一環と見られています。

これらの対策は、青少年のデジタル環境における安全性向上を目指すものであり、今後の展開に注目が集まっています。

Pickt記事後バナー — 家族イラスト付きの共同買い物リストアプリ