メタは、InstagramとFacebookの親会社として、AIチャットボットの新しい安全機能を導入し、若年ユーザーに対する技術の影響への懸念に対応する。親は子どもがAIキャラクターとの一対一のチャットを無効にすることができ、また、子どもが何についてチャットしているのか情報を得ることが可能となる。この機能は来年初頭にInstagramから開始される。
メタは、PG-13基準に基づくティーンアカウントへのアプローチを発表し、若年ユーザーが安全に利用できるよう、コンテンツガイドを提供する。AIキャラクターは、自殺や自傷行為について話し合わず、必要に応じてリソースを紹介する設計である。
これに関連し、カリフォルニア州知事ガビン・ニューサムは、AIチャットボット開発者に対し、青少年に対する自殺や自傷行為の議論を避けるプロトコルを策定することを義務付ける法案に署名したが、子どもの利用を完全に制限する別の法案は拒否した。




