"Why AI Is Harder Than We Think"を読んだ

論文の要約です。昨今はAIの研究が盛んに行われていますが、実は過去にもAIブームは起きていました。そして今回も過去と同様に期待が過度であったが故の失望期を迎えるのではないか、という見方があります。この論文はこうしたAIの春(期待期)と冬(失望期)のサイクルがなぜ起きるのか?について考察したものです。論文の体裁を取っていますが、ブログ的な文章でAIの専門家でなくとも読める内容です。

書誌情報

Mitchell, Melanie. 2021. “Why AI Is Harder Than We Think.” arXiv. http://arxiv.org/abs/2104.12871.

著者であるMichell先生はPortland State Universityの教授です。

AI春と冬のサイクル

人工知能(Artificial Intelligence)は1960年前後から様々なブレイクスルーをきっかけとした研究が活発に進む「春」の時代と、期待された性能を出せないが故の失望の「冬」の時代を繰り返している。

第1期: 1960~1970年代

脳の神経細胞をモデル化した計算モデル、パーセプトロンの発明により人間の知能をコンピュータで再現する人工知能への期待が高まる。しかし1969年にパーセプトロンが線形分離の問題を解けないことがわかり、ブームは去った。

第2期:1980年代初頭

人間の専門家が記述したルールに基づいて医療診断などを自動で行うエキスパートシステムが注目される。日本では第五世代コンピュータプロジェクト、アメリカではStrategic Computing Initiativeなど巨大な資金が政府主導で投入された。しかし未知のケースに対応できる汎用的なルール記述の難しさから冷遇の時代へ。冬の時代である1990年に著者が博士号を取ったときは「履歴書にAritificial Intelligenceの文字を入れない方がよい」とアドバイスされたことさえあった。

第3期:現在1990, 2000年代〜

知能をルールで記述することで作るのではなく、実際のデータから推論モデルを統計的な手法で学習させる機械学習(Machine Learning)が1990年〜2000年に研究される。この手法は第1期のパーセプトロンのように神経科学ではなく、ベイズなどの統計に基づいた手法。人間に取って代わりうる汎用的な知能よりも、画像認識など個別なタスクを解くことに注力した。そして脳の構造にヒントを得た大規模ニューラルネットワークを使った深層学習(Deep Learning)が画像認識などのベンチマークで統計モデルを大きく上回る性能を出す。深層学習は音声認識、言語翻訳、対話ボット、画像認識、ビデオゲームプレイ、タンパク質フォールディングなどで高い性能を示しており、多くの資金が投入され盛んな研究が続いている。

しかし深層学習にも深刻な性能の限界があることがあることがわかってきている。ニューラルネットワークは与えられた入力と望ましい出力のペアデータを集めたデータセットを使って学習されるが、人間が期待しないようなデータの統計的な特徴を使って推論してしまう(Shortcut learning)。そのために間違った推論結果をうむ不自然なデータ(Adversarial perturbations)を作ることができてしまう。

AIへの過度な期待はなぜ起こるのか

どの時期においても、人々は春の時代にAIへの過度な期待をしてきた。「専門家の仕事を代わりにやってくれる」「人間の代わりに家事をしてくれるロボットが作れる」「完全自動運転が実現し道中を走るようになる」「人間の知能を遥かに超えたSuper Intelligenceが生まれる」「シンギュラリティがくる」など。しかしこれらの期待は結局実現していない。最近はTransformer、自己教師あり学習、深層強化学習など、従来よりも人間らしく推論するAIの研究が進んでいるが、まだ人間レベルに到達する道は不透明なままである。

ではなぜ、人々はAIに過度な期待をしてしまうのだろうか。この理由は我々(人間)が知能について考えるときのバイアス、知能そのものの理解の欠如にあるのではないか。このことを4つの誤信(Fallacy)として説明する。

誤信1:限定的な知能は汎用的な知能と地続きである

現在のAIはチェスや囲碁自然言語のQ&Aなどの限られたタスクを解く限定的な知能だが、この研究は人間のような汎用的知能を作る上での一歩であると考えられている。しかし、最初の一歩を踏み出したからといってそれが必ずしも目指すものに到達するかどうかは分からない。

誤信2:簡単なものは簡単で、難しいものは難しい

人間にとって簡単なタスクはAIにとって簡単な訳ではない。例えば、AIはチェスのような高度な知能テストで高いパフォーマンスを出せるが、人間の1歳児が行う認知や移動の機能のスキルは実現できない。汎用的なAIを作るのが難しいのは、目標とする私たちの思考の大部分は無意識かつ複雑だからだ。

誤信3:希望的な記憶術のルアー(The lure of wishful mnemonics)

希望的な記憶術(Wishful mnemonics)はDrew McDermottによる言葉。私たちはプログラムが何かしらの知的に見える処理を行う際、プログラムがデータを「理解」をしていると説明してしまうが、実際にはプログラムは本質的に「理解」をしているわけではない。このように私たちは「ゴール」や「理解」など、人間の知的能力とのアナロジーで説明しがちである。しかし実際にはAIのプログラムはデータを”理解”しているわけではないし、"ゴール"を与えられているわけではない。たとえば、"Question Answering Dataset"などの名前がついたベンチマークで人間以上のスコアを出すと人々は「システムは質問応答で人間以上になったのだ」と誤解してしまう。だが実際はそんなことはない。実際、深層学習によるベンチマーク結果はShortcut learningになっている可能性がある。

誤信4:知能は全て脳にある

20世紀中頃に現れた「脳の情報処理」では認知能力を脳の情報処理として捉え、この過程を再現することができれば人間レベルのAIを作ることができると考えられていた。そのため身体はセンサ入力、運動出力を除いて知能に大きな役割を果たすとは考えられていなかった。これは過去のシンボリックAI研究でも通じてみられる考え方で、「将来、計算リソースが十分に増えれば人間レベルに到達するだろう」という現在の言説にもみられる。

しかし認知科学発達心理学において身体は認知機能に重要な役割を果たすことが指摘されてきた。我々の脳にある知的な表現は身体に依存しており、思考は感情などの「非合理な」バイアスなしには成り立たない。AIに関する言説の多くはこの指摘を無視しており、バイアスなしの「純粋な知能」を前提にしがちだ。たとえば、「人間を超えるAIが将来作られ、地球環境を守るために人間を殺すのではないか」という思考実験。ここでは将来人間を脅かす超AIが感情などを持たない非人間的なものである、と暗に仮定している。

結論

4つの誤信を通して現在のAIの見方に関する問題点と私たちの知能に関する直感が限られていることを示した。

最近では人間が共通して持つ知的能力"Common sense"がAI研究者と認知科学者たち共通の概念として議論されている。機械に人間の幼児のように空間、時間、因果律、無生物/生物の概念を与え、具体的な例から一般的なコンセプトへの抽象化、過去の経験からのアナロジーなどを実現するにはどうすればよいのか。まだまだ未解決の問題だ。現在のAIは知能そのものの理論が乏しく、科学というよりも、具体的な試行錯誤を通じて理論を探る錬金術に近い。知能理解の科学をやっていきましょう。

感想

日本でも数年前からシンギュラリティが大真面目に議論されたり、AIは人間の職を奪ってしまうのではないか、といった話が実しやかに囁かれています。こうした過激な説は産業応用が盛んなAIならではの現象かもしれませんね。実際にAIと名を付ければ物が売れたり、お金が集まったりする訳です。しかし、こうした現実に見合わない「飛ばし」のツケは将来の技術者/研究者が支払う訳です。未来の希望があることはもちろん重要ですが、具体的な技術を超えたメタな議論においても科学的な眼差しは忘れたくないものですね。