脳細胞の違いが人間やAIの学習の鍵になるかもしれない

脳細胞の違いが人間やAIの学習の鍵になるかもしれないテクノロジー

インペリアル・カレッジ・ロンドンの研究者たちは、脳細胞間のばらつきが学習を速め、脳や将来のAIの性能を向上させる可能性があることを発見しました。

今回の研究では、脳のネットワークのシミュレーションにおいて、個々の細胞の電気的特性を微調整することで、同一の細胞を用いたシミュレーションよりもネットワークの学習速度が速くなることを発見しました。

また、同じ結果を得るために必要な細胞の数も少なくて済み、同じ細胞を使ったモデルよりもエネルギー消費量が少ないこともわかったといいます。

今回の発見は、人間の脳がなぜ学習能力に優れているのかを教えてくれるだけでなく、声や顔を認識できるデジタルアシスタントや自動運転車の技術など、より優れた人工知能システムの構築に役立つかもしれない、と著者らは述べています。

インペリアル・カレッジ・ロンドンの電気・電子工学部の博士課程に在籍する、筆頭著者のNicolas Perez氏は、次のように述べています。

「脳は、複雑な課題を解決するために優れた能力を発揮しながらも、エネルギー効率を高める必要があります。私たちの研究は、脳とAIの両方で多様なニューロンを持つことがこれらの要件を満たし、学習能力を高める可能性を示唆しています。」

本研究は、Nature Communicationsに掲載されています。

なぜニューロンは雪の結晶のようなのか?

手のジェスチャーを識別するニューラルネットワーク。

手のジェスチャーを識別するニューラルネットワーク。©Imperial College London

脳は、ニューロンと呼ばれる数十億個の細胞で構成されており、これらの細胞が広大な「ニューラルネットワーク」によって接続されていることで、私たちは世界について学ぶことができます。

ニューロンは雪の結晶のようなものです。遠くから見ると同じように見えますが、よく観察すると、同じものはないことがわかります。

一方、AIの基盤技術である人工ニューラルネットワークの各細胞は、接続性が異なるだけで同じものです。

AI技術は急速に進歩しているにもかかわらず、人工ニューラルネットワークは人間の脳ほど正確かつ迅速に学習することができません。

研究者たちは、細胞のばらつきが原因ではないかと考えました。

研究チームは、ニューラルネットワークの細胞の特性を変化させることで脳をエミュレートし、AIの学習能力を高めることができるかどうかを調べることにしました。

その結果、細胞の可変性によって、学習能力が向上し、エネルギー消費量が減少することがわかりました。

主著者であるインペリアル・カレッジ・ロンドン電気電子工学部のDan Goodman博士は、次のように述べています。

「進化は私たちに驚くべき脳機能を与えてくれましたが、そのほとんどはまだ理解し始めたばかりです。私たちの研究は、AIをよりよく機能させるために、私たち自身の生物学から重要な教訓を得られることを示唆しています。」

タイミングの調整

AIニューラルネットワークにハンドジェスチャーの学習と識別を課す。

AIニューラルネットワークにハンドジェスチャーの学習と識別を課す。©Imperial College London

今回の研究では、「時定数1物理学や工学の分野では、時定数は通常ギリシャ文字のτ(タウ)で表され、一次の線形時不変(LTI)システムのステップ入力に対する応答を特徴づけるパラメータである。」の調整に焦点を当てました。

つまり、各細胞が、その細胞につながっている細胞が何をしているかに基づいて、自分が何をしたいかをどれだけ早く決めるかということです。

ある細胞は、つながっている細胞が何をしているかだけを見て、非常に早く決断します。

他の細胞は反応が遅く、他の細胞がしばらくしてから行ったことに基づいて判断します。

細胞の時定数を変化させた後、ネットワークに機械学習のベンチマークとなるタスクを実行させました。

衣服の画像と手書きの数字の分類、人間のジェスチャーの認識、話し言葉の数字とコマンドの識別です。

その結果、ネットワークが低速と高速の情報を組み合わせることで、より複雑な現実世界の課題を解決できるようになりました。

また、シミュレーションしたネットワークの変動量を変化させたところ、最も優れた性能を発揮したネットワークが、脳で見られる変動量と一致したことから、脳は最適な学習を行うために、ちょうどよい変動量を持つように進化してきたのではないかと考えられます。

Nicolas Perez氏は、「私たちは、ある種の脳の特性をエミュレートすることで、AIを私たちの脳の働きに近づけることができることを実証しました。しかし、現在のAIシステムは、生物学的システムに見られるようなエネルギー効率のレベルにはほど遠いものです。次は、AIネットワークを脳と同じように効率的に動作させるために、これらのネットワークのエネルギー消費量を削減する方法を検討します。」と述べています。

Published by Imperial College London. Nicolas Perez-Nieves et al, Neural heterogeneity promotes robust learning, Nature Communications (2021). DOI: 10.1038/s41467-021-26022-3
タイトルとURLをコピーしました