AI活用の課題は個人のモラルだけで解決できない
──日本の教育現場におけるAI活用の現状について、坂本先生の見解をお聞かせください。
教育分野に限らず、現在の日本では「AIをどんどん活用しよう」という風潮が強いのですが、私は危険だと感じています。海外では活用方法だけでなくAI倫理について十分に考え、自制的に対応すべきだという意識が非常に高まっているからです。日本もこの点で立ち止まり、活用の前に「AIはどのような仕組みで動き、どう扱うべきなのか」といった、本質的なことを考える必要があると思っています。
2024年末、文部科学省が「初等中等教育段階における生成AIの利活用に関するガイドライン」を出しましたが、あくまでガイドラインであり、法的な規制はありません。リスクに関する記述もありますが、私は活用事例に偏っている印象を受けました。「とにかく活用したい」という気持ちが前面に出ており、リスクについては「気をつけましょう」という程度にとどまっているように感じています。
これでは、AIを活用する際に考慮すべき点が十分に議論されないまま、現場で導入が進んでしまうのではないかと危惧しています。忙しい先生方がAIの便利さを感じて「使いたい」と思う気持ちは非常によく理解できますが、教育現場での導入には、セキュリティや著作権など、十分に議論すべき重要な問題が山積しています。
海外ではAI倫理の問題がずいぶん前から議論され、特にEUでは法的規制も進んでいます。しかし、日本では活用一辺倒の風潮が強く、セキュリティや倫理に関するガバナンスの議論が欠けているのではないでしょうか。
また多くの民間企業では、エンタープライズ版のAIサービスを導入し、企業内の機密データを入力してもAIサービスに学習されないなどのセキュリティ対策を講じています。しかし教育現場では、それぞれの教職員が「学習を許可しない」という設定をすることに頼ったり、自治体や学校が公式に導入していないサービスを使ったりすることも多くあるようです。
セキュリティの問題は個人のモラルでは解決しません。「ありえないぐらい危険」な問題にもかかわらず、その議論が十分になされていないのが日本の現状です。私自身、大学の情報セキュリティを管理する部門で責任者を務めていますが、「学校ってそんなにセキュリティが甘くていいの?」と強く感じています。
従来の「新しいものは、とにかくまず使ってみよう」という考え方は、AI時代には通用しなくなるでしょう。生成AIは単なる道具ではなく、自律的に判断・行動するエージェントなのです。「取り返しがつかない問題を引き起こす可能性」を考慮しなければなりません。

