ディープラーニングはAIの精度を大幅に高めましたが、普及させる際の課題として指摘されるのが判断の根拠を明示できないことでした。

 近年、AIは金融や医療といった分野でも活用されるようになっていますが、それらの領域は莫大な資金や命を扱うだけに、エンドユーザーや患者に対してAIがなぜそういった判断を下したのかを説明する必要があります。

 ディープラーニングは、予測結果を下すまでの過程をブラックボックス化してしまいます。AIが高度な予測をすることは分かっていても、ユーザーがそれに納得がいかなければユーザーは増えません。そのため、数年前から“説明できるAI”の存在が注目されるようになっています。

 現在では、GIGAスクール構想によって学校現場でもデジタル化が進んできました。個人に対して端末が用意され、詳細なデータを収集できるようになり、それらを活用するためにAIの導入も検討されているようです。そんな学校現場でも、生徒がAIの判断に従うには「なぜその判断なのか」を説明できることが重要になるようで、説明できるAIの重要性が高まっています。(銭君毅)

【記事はこちら】
京都大学と内田洋行、教育AIエンジンの開発と実証研究