『スーパーインテリジェンス -超絶AIと人類の命運-』ニック・ボストロム著 倉骨 彰訳 を読む。『宇宙・動物・資本主義 -稲葉振一郎対話集-』で取り上げられいた本。
AIがさらに進化したスーパーインテリジェンス(超絶知能)よるポスト・ヒューマン時代を考察したもの。年末・年始、読み進むのにナンギはしたが、得たものがいろいろあった。かいつまんで紹介。
「訳者あとがき」から引用。
「本書はポストロム教授による、一つの非常に大胆・綿密な思考実験である。そして、この思考実験の仮説は次のようなものである―「もし、近未来にスーパーインテリジェンス(超絶知能)が出現することが現実的に可能であれば、われわれ人類は存在論的リスク(滅亡リスク)に直面する可能性があり、そのリスクを回避するには、コントロール問題を解決しなければならない」
「コントロール問題は、集団的かつ総合的な知脳において、超絶知能エージェントにはるかに劣る人類が、いかにすれば、そのようなエージェントの振る舞いをコントロールすることができるのか、という問題を示す意味で使用される」
アシモフのロボット工学三原則は「人間への安全性、命令への服従、自己防衛」だが、
スーパーインテリジェンスにも同等のものが要求される。
「知能が何たるかを最初からプログラムに盛り込んでおくのではなく、プログラム自身が学習を通じて知能を獲得するようにプログラムを設計する。これがアラン・チューリングの考え方であった。そして、この考え方は人工知能を開発する上で、神経形態学的アプローチにおいても合成的アプローチにおいても、同様に有効である」
「人工知能は人間の心に似たようなものである必要はない。―略―たとえば汎用AIが、愛情や憎悪、プライドなど、人間のさまざまな感情に左右され、自身を動機づける、と思われる理由は一つとして存在しない。―略―人工知能が自分で動機を持って行いを決める、という問題については、本書のテーマにとっては中心的な問題である」
たとえば、AIが命じられたことを拒否する。これは、嫌というエモーショナルなものなのか。単なるバグとかエラーなのか。でも、たぶん、それは、使用説明書には載っていないかも。
「AIシステムは、自身が行使可能な能力が弱い限り、人間に協力的な挙動を続ける(自身がより賢くなればなるほど、より協力的に振る舞いつづけるようになる)。しかし、行使可能な能力が十分に獲得できたと自覚した時点で、突如として、一方的に人間に対し攻撃を仕かけ、シングルトンを形成し、自己の最終到達価値の判断基準にもとづき、世界の最適化を直接、自身で実行しはじめる」
優れたAIシステムを導入することは、人間社会にとっては恩恵を受けるが、逆に、リスクは高くなる。AIのジレンマ。
「汎用人工知能は、生身の人間の知能の代用になりうる。そして、デジタル知能は、知的労働の分野にも進出できるし、人の手足のごとく動けるアクチュエータやロボットボディーと合体すれば、人間に代わって肉体労働をこなすこともできる。もし、人工知能が進歩して、人工知能ロボット労働者が―いくらでもたやすく複製できるロボット労働者が―あらゆる種類の仕事において生身の人間の労働者よりも安価に雇用でき、しかも、生身の人間の労働者をしのぐ力量を発揮できるようになったら、世界はいったい、どのようになるのであろうか」
チャペックの『ロボット(R.U.R) 』が現実化するのか。産業革命に起きたラッダイト運動が再来するのか。でも、量産型「人工知能ロボット労働者」に敵わないかも。
『ブレードランナー』では、レプリカントが生みの親である博士を殺害する。これは『フランケンシュタイン』の物語を敷衍したものといえる。余談。
あ、スーパーインテリジェンスって『2001年宇宙の旅』のHALのようなものだろう。
制御不能となったHALは、暴走したと思っていたが、自律してしまった、自我の芽生えによるものなのかなと思えてしまう。