「暗黙の了解」はプログラミングできない

人工知能の学習能力はかなり高まっている一方で、人工知能に解かせるには難しい課題というものがまだいくつも存在している。代表的なものが「フレーム問題」だ。今の人工知能には「問題に内在する暗黙の前提」を自ら設定することができない。

よく使われるブラックジョークに、高熱の患者の熱を冷ますという課題を設定された人工知能が、「殺せば熱が下がります」と答えるというものがある。治療というものは治すためにやっているという暗黙の前提が、人工知能にはプログラミングしてあげないと理解できない。そして人工知能が理解すべき暗黙の前提は世の中に無数にあるので、プログラミングできないのだ。

この問題を乗り越えられない限り、人工知能は人間の言葉を理解できない。だからセンター試験の穴埋め問題には正解できても、東大の二次試験のように深い読解力を要するタスクでは、人工知能は人間よりも劣ってしまうことになる。

人間の脳を再現するには「京」の24万倍の計算能力が必要

ここまでは正しいのだが、議論の落とし穴の一つめのポイントは、この主張は「現在のプログラミング技術の延長では」と但し書きがついているということだ。

実はフレーム問題をはじめとする人工知能の解決すべき問題のいくつかは、現在のコンピュータ技術の延長線上のやり方では解決できないと多くの人工知能学者も考えている。そして、それを超えるための新しいコンピュータ技術の研究が始まっている。

有名なものが、人間の脳の構造を再現するニューロコンピュータの研究だ。人間の脳は1000億個のニューロンと150兆個のシナプスで構成され、その複雑な動きによって人間の知能が機能している。これと同じ計算環境を再現できれば、人間のように考えることができる新しいタイプの人工知能が誕生するかもしれない。

この手の研究にはスーパーコンピュータは向いていない。実際、スーパーコンピュータ「京」で人間の脳を再現するシミュレーションが行なわれたことがある。そのときには人間の脳の1%の活動の1秒分を再現するのに40分かかったという。つまりスーパーコンピュータは人間の脳と同じ構造の計算をリアルタイムでこなすためにはパワー不足で、もしやるならば「京」の24万倍の計算能力が必要になるわけである。