人間のように「考える」AIの開発

人間のように「考える」AIの開発テクノロジー

人間のようなAIを開発するには、単に人間の行動を模倣するだけではなく、人間のように情報を処理したり、考えたりできる技術が必要です。

グラスゴー大学心理・神経科学部が中心となって、学術誌「Patterns」に発表した新しい研究では、機械学習の一分野であるディープニューラルネットワークの情報処理方法を3Dモデルを用いて分析し、その情報処理が人間のそれとどのように一致するかを可視化しています。

今回の研究により、人間と同じように情報を処理し、人間が理解・予測できるようなエラーを起こす、より信頼性の高いAI技術の開発に道が開かれることが期待されます。

AI開発の課題の一つは、機械の思考プロセスをいかに理解し、それが人間の情報処理と一致しているかどうかを把握して、精度を確保することです。

ディープニューラルネットワークは、人間の意思決定行動の現時点での最良のモデルとして紹介されることが多く、いくつかのタスクでは人間のパフォーマンスを達成、あるいは上回ることもあります。

しかし、人を欺くような単純な視覚的識別タスクであっても、人間と比較した場合、AIモデルの明らかな矛盾やエラーが明らかになることがあります。

現在、ディープニューラルネットワーク技術は、顔認識などのアプリケーションに使用されており、これらの分野では大きな成功を収めていますが、科学者たちは、ディープニューラルネットワークがどのように情報を処理するのか、したがって、どのような場合にエラーが発生するのかについて、まだ完全には理解していません。

今回の研究では、この問題を解決するために、ディープニューラルネットワークに与えられた視覚刺激をモデル化し、それを複数の方法で変換することで、人間とAIモデルの間で類似した情報を処理し、認識の類似性を示しました。

本研究の上席著者であり、グラスゴー大学神経科学・技術研究所の所長であるPhilippe Schyns教授は、次のように述べています。

「人間と同じように振る舞うAIモデルを構築する場合、例えば、人間と同じように人の顔を見たときにいつでもその人の顔を認識できるようにするには、AIモデルが、他の人間が顔を認識するときと同じ情報を使っていることを確認する必要があります。もしAIがこれを行わなければ、システムが人間と同じように機能しているように錯覚してしまうかもしれませんが、新しい、あるいはテストされていない状況では、間違ったことをしてしまうかもしれません。」

研究者たちは、修正可能な一連の3D顔を使用し、人間に、これらのランダムに生成された顔と4つの身近な人物との類似性を評価してもらいました。

人間とAIが同じ判断をするかどうかだけでなく、それが同じ情報に基づいているかどうかも検証しました。

重要なのは、研究者たちのアプローチでは、これらの結果を、人間とネットワークの行動を駆動する3Dの顔として視覚化できることです。

例えば、2,000人の人物を正しく分類したネットワークは、大きく戯画化された顔によって動かされており、人間とはまったく異なる顔情報を処理して顔を識別していることがわかりました。

研究者たちは、この研究が、より人間に近い振る舞いをし、予測不可能なエラーを少なくする、より信頼性の高いAI技術への道を開くものと期待しています。

Published by University of Glasgow. Christoph Daube et al, Grounding deep neural network predictions of human categorization behavior in understandable functional features: The case of face identity, Patterns (2021). DOI: 10.1016/j.patter.2021.100348
タイトルとURLをコピーしました