チャイルド・ファンド・ジャパンは、全国の15歳〜79歳の男女を対象に実施した、「生成AIと子どもの人権侵害」に関する意識調査の結果を3月6日に発表した。同調査は、1月26日〜2月8日の期間に行われ、1200名から回答を得ている。
調査対象者に、生成AIによってどのような「子どもの人権侵害」が発生する可能性があると思うかを尋ねたところ、「子ども同士でのいじめ、いやがらせ」(64.6%)がもっとも多く、「児童ポルノによる被害」(58.2%)、「子どものプライバシーの侵害」(54.2%)がそれに続いた。「子どもの人権侵害は発生しない」という回答は6.9%に留まっている。

児童の性的表現の含まれるコンテンツ(画像、動画、音声などの素材)を法令で規制することについて、どのように思うかを尋ねた質問では、「実在する・実在しないに関わらず、すべて禁止するべき」(72.0%)が最多となった。「実在する児童を加工した場合も禁止するべき」(15.9%)、「実在する児童がいる場合のみ禁止するべき(現行法令どおり)」(10.8%)がそれに続いた。

そのほか、ディープフェイクなどの生成AIによるCSAM(児童性的虐待コンテンツ)の被害者が身近にいるかという質問には、「いない」 (75.4%)と回答した人が大多数を占め、「いる」(0.3%)はごくわずかだった。しかしながら、「わからない」と回答した人は23.3%と全体の約4分の1となっている。
CSAM問題への対応には、政府や企業に規制を期待する回答が多い結果となった。一方で、「子ども自身がAIリテラシーを高めて自己防衛できる力をつけるべき」という回答も29.3%となっている。
さらに未成年へのSNS利用禁止については、「賛成」と「どちらかといえば賛成」を合わせた割合が80.8%に達した。
これらの回答を受けて、チャイルド・ファンド・ジャパンは以下のような提言を行っている。
- 児童の性的表現の含まれるコンテンツは、「実在する・実在しないに関わらず、すべて禁止する」ことを検討し、「実在する児童がいる場合のみ禁止するべき(現行法令どおり)」と考える層の意見も聞きながら、議論する
- CSAMを子ども同士でのいじめ・いやがらせとも認識して規制を議論する
- ディープフェイクなどの生成AIによるCSAM被害者が認識されない結果になっているが、「わからない」が顕著に多い15〜19歳の男女についてはより丁寧に調査をすることが必要である
- 政府と関連業界に規制を働きかけるとともに、子ども自身の自己防衛力についても子ども世代・親世代の意見を聞きながら議論する
- 未成年のSNS利用禁止について、反対が多い15〜19歳の男女の意見を聞きながら議論する
- 関連リンク
この記事は参考になりましたか?
この記事をシェア