AIのシンギュラリティは起こるが一瞬で終わる

英ハダースフィールド大学の計算機科学の上級講師マウロ・ヴァラティ博士が興味深い論考を書いている。宇宙は混沌としておりランダム性を持つという最近の量子力学が正しいとすれば、完全に宇宙の振る舞いを予測することは不可能になり、知能の向上が頭打ちするので、AIの暴走は起こらないという説である。

AIにおけるシンギュラリティ(技術的特異点)という言葉を有名にしたのはレイ・カーツワイルである。カーツワイルの議論では、AIが進化が続き、AI自身が自分よりも優れたAIを作るようになった瞬間に、知能の進化速度が無限大になることで、人間の想像力が及ばない知能が誕生するという仮説である。自身がどんどん自身より優れたものを生むことが続くのだから、指数関数的に成長するのである。

カーツワイルの予測では2045年がシンギュラリティが発生する時期である。なお、「人工知能が人間を超える」という意味で勘違いしている人も多いが、それについては2029年と予測されている。

さて、ヴァラティ博士の話に戻れば、量子力学の理論では物質の振る舞いにはランダム性がある。例えば、ある原子がN個あった時に、その半分(N/2個)が放射性崩壊するまでの時間(半減期)を予測することはできるが、ある特定の原子を取り上げてそれがいつ崩壊するかということは予測できない。また、粒子の位置と運動量を同時に知ることもできない。

これは古典的にはハイデルベルグの不確定性原理という名前で知られているが、名前はともかく量子力学的な「ランダム性」が正しいとすれば、宇宙についてランダム性によらない部分までは予測することができるが、それ以上は予測の余地が無いので予測精度が上がらなくなるということである。

人間の営みも心の動きも極論すればすべて物理現象に過ぎない。人工知能は人間の営みを代替するためのものなので、その成長余力は物理学的に制限されることになる。量子力学的な理論が正しければ、人工知能が無限に成長することはなく、どこかで頭打ちするということになる。

実用的な量子コンピュータがあれば、飛躍的に優れた人工知能を開発できるという意見がある。筆者もその意見には同意だが、それでも無限に成長することはできないかもしれない。

量子力学とシンギュラリティ仮説と整合的と言えるのは、人工知能が人間を超え、自身より優れた人工知能を作るようになった瞬間に、爆発的に技術進歩速度が上がり、すぐに物理学的な制約に到達して人工知能の成長が終わるというものだろう。

正確には資源とコンピュータの計算能力に制限があるので、爆発的な成長と言っても学習時間がかかるので、その成長はある程度継続的に続くだろう。しかし、成長速度が無限大のまま止まらず暴走するということにはならない。

もっとも、それでも人間の能力を遥かに超えており、それでも人間の想像力がなかなか及ばない水準であることには変わりがない。

参考文献:The Conversation, “Will AI take over? Quantum theory suggests otherwise”, 7 Jan 2020

参考文献:レイ・カーツワイル『シンギュラリティは近い[エッセンス版] 人類が生命を超越するとき』NHK出版

       

この記事の著者 HAL について

金融・マーケティング分野の機械学習システム開発や導入支援が専門。SlofiAでは主に海外情勢に関する記事、金融工学や機械学習に関する記事を担当。

HAL の記事一覧 SlofiAのtwitterアカウント@slofia_finance