ふたつのアプローチ

人工知能とはなにか、について語るとき、「知性とはなにか」「感性とはなにか」「認知とはなにか」「意識とはなにか」について、広がりのある様々な定義の中から具体的な議論上の定義をする必要がある。

知性と感性

知性を極めた究極系の人工知能を『人工知性』と呼ぼう。人工知性とは、簡単に言えば論理回路の究極系で、SF作品で例えれば『2001年宇宙の旅』に出てくるHAL9000や、ターミネーターシリーズに登場したスカイネットだ。宇宙船ディスカバリー号のあらゆる管制を任されたHAL9000には感情は不要とされており、各種センサー、データベース、通信、クルーとの会話をインプットとして、要求を的確に判断し、間違いなく遂行することが求められる。

劇中でHAL9000が不可解な行動をとってしまった原因にはさまざまな解釈があるが、ボーマン船長によって機能停止されることを拒んだHAL9000には恐怖心を見て取ることができる。恐怖心は知性ではなく感性の産物である。ノイマン型コンピューターが決して持ち得ないはずのものをHAL9000は獲得したのだ。

自らの論理矛盾を自己解決し、知識(データ)を増強させながら高度化していく、複雑な論理展開が可能な論理回路である。

一方、感性を極めた究極系の人工知能を『人工感性』と呼ぼう。人間と同じように喜怒哀楽の感情をもつ機械で、ドラえもんや鉄腕アトムがそれにあたる。ドラえもんやアトムはまるで人間のように笑ったり怒ったり泣いたりするし、怖いという感情もある。ところがドラえもんもアトムも、その行動を見る限り頭の良さは人間と大差ない。

人工知性の課題

人工知性の究極進化の先には、どんづまりがある。なぜなら論理というものはひとつの問いに対して答えは無限にある。これが認識や認知と複雑に関係しているため、もしこの世に複数の異なるチームによって作られた複数の人工知性が存在した場合、同じ答えを出さないと考えて良い。これは、たとえばAIによるチェス、オセロ、将棋、囲碁を見ればわかりやすい。

  • 大きな命題(例えば『ゲームに勝利する』)は必ず人間などの外部から与えられなければならないという点では、電卓と同じである。
  • 大きな命題に到達するための道筋は無限にある(ゲームに勝つための棋譜はひとつではない)。

そこで人工知性に求められるのは、命題に対してより最適化されたアプローチ、つまり時間的にも資源的にも最短かつ効果的なルートで命題を果たすために必要なアルゴリズムや評価関数の高度化である。

アルゴリズム自体を自らプログラミングできるようになれば、人工知性は自らをアップデートしてどんどん勝手に高度になっていく。ところがそうなると、与えられた命題を達成するためにどのような手段をとるのかを人間が理解できなくなっていく。

たとえば『戦争をなくす』なんて命題を与えたら、『人間がいなくなれば戦争がなくなる』なんて答えも出しかねないわけだ。そこでもしその人工知性に行動を起こす権限を与えていたら、HAL9000やスカイネットの悲劇が起きてしまう可能性がある。

こうした事態を避けるために、科学者たちがとっているアプローチのひとつが、ルールを作ることである。

アイザック・アシモフ氏の有名な『ロボット三原則』というものがある。

第一条
ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
第二条
ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
第三条
ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。

アイザック・アシモフ著『われはロボット』より

つまり簡単に言えば、ロボットは人間を傷つけるな。人間が危ないときは守れ。人間に危害を与えない範囲で、人間の言うことに従え。そして自分のこともできるだけ守れ。ということである。

これはなかなか有効なルールのようにも見えるが実は穴だらけで、このルールだけでは様々な不都合が生じるのだ。そこでこのルールが拡張されて数百項目まで増えている現状がある。はて、これは六法全書よりも大変な話だ。

たとえば『ロボットは人間に危害を与えてはならない』について。自動車を運転している人工知能(自動運転車と呼んでもいい)が、次のような状況に陥ったらどうすべきだろうか。

時速60km/hで走行中、突然子供が飛び出してきた。ブレーキは間に合わない。子供を避けるためにはステアリングを右か左に切るしかない。ところが右に切れば、車は対向車線のトラックに激突し、車に乗っている人間が死ぬ。左に切れば、車は歩道を歩いている人混みに突っ込むことになる。

このような状況を避けようとすると、「フレーム問題」として有名な問題が発生する。つまり、問題が起きないための条件を事前に計算しようとすると、条件が無限に分岐してしまって、人工知能はそれ以上先のことを考えることができなくなるという問題だ。

世の中、すべての条件を事前に予測することは不可能で、それはどんなに高度な人工知能でも同じである。

それでもまだ、人間が思いつきもしなかったような条件まで探索できる可能性を考えれば、メリットは大きいと感じるかもしれない。ところが、予想外の条件が発生したときにどうするかが問題となる。

自動運転車が突然運転放棄してしまったら大変なことになる。あるいは飛び出した歩行者などまるで存在しなかったかのようにブレーキもかけずに轢いてしまうかもしれない。あとで理由を確認したら「いずれにせよ人が傷つくという状況は避けられなかったため、減速は不要と判断した」なんてことにもなりかねない。

あるいは条件分岐が複雑すぎて処理することをやめて、目の前に何があろうとまっすぐ走るかもしれない。

このように、不測の事態が発生したときに何をしでかすかわからない人工知能にはリスクがある。それでは人工知能の開発者が「不測の事態が発生したときには、緊急ブレーキをかけてステアリングは直進」という設定をしていたら、目の前に飛び出して轢かれてしまった人間に対して誰が責任をとることになるのか。人工知能の開発者? 条件をつくった人? 自動車メーカー? 自動車のオーナー? まさか、轢かれた人?

このようなフレーム問題が解決しない限り、人工知能の判断をそのまま社会に適用するシーンは限定的とならざるを得ない。

前述の自動車の例は、人間が運転していても発生しうるものだ。人間の場合は、行動に責任をとるという社会システムが完成している。たとえ理不尽な判決であっても、機能的に不全が多々あるとしても、現在あるルール(法律)のもとにさまざまなエラーが「あなたの責任はこれくらい」と割り振られて、それに対して金銭的な支払いや懲役や禁固あるいは社会的名誉の剥奪などといった形で制裁が起きる。

しかしこれが人工知能のやったことになると、困ったことになるのだ。

罰という考え方からの脱却

人工知性は近い将来、われわれ人間の社会に共存していく可能性が高い。この事実は、ひとつわたしたちの社会モデルに大きな欠陥があることを示唆してくれている。孔子の言った「罪を憎んで人を憎まず」が実際に社会システムに反映されるべき時代がすぐそこまで来ていると感じるのだ。

そもそもわたしたち人類は「悪いことをしたらその責任はやった人に帰依する」という共通認識をもっている。しかしここで問いたいのは、「悪いこと」とは何かについてだ。故意に悪事を働くと、より責任が重いとされる。故意とはなんだろうか。

風邪やインフルエンザであることを自覚していながら満員電車に乗って、他人に病をうつすのは故意に他者を傷つけていることにはならないか。

道端を歩いていたらペンダントが落ちていた。あなたはそれを拾った。ペンダントにはボタンがついていた。何気なくそのボタンを押した瞬間、宇宙の果てからミサイルが落ちてきて、人類の50%が死滅した。そのボタンは宇宙人が落としたミサイル発射装置だったのだ。あなたはそれを知らなかった。

ある程度の批判を覚悟で「絶歌」について言及しよう。知らない人のために説明しておくと、1997年に発生した神戸連続児童殺傷事件の加害者の男性が、「元少年A」の名義で事件にいたる経緯、犯行後の社会復帰にいたる過程を綴った手記のタイトルだ。読むのは精神力を要するから個人の判断にお任せするが、この手記を読んで理解することがひとつある。それは、元少年Aは、人を殺害することの重大性を認知していなかったのだ。逮捕後に適切な指導を受け、その重大さを認知した元少年Aは、当然ながらそこで初めて後悔することになる。

もしあなたが、生まれてから一度も外に出たことがなく、誰にも倫理や道徳を教わる機会を持たず、ただ自分の部屋でコンピューターゲームで遊んで暮らしていたとする。ゲームの中では人が人を殺す。ここでは、そのようなゲームの倫理性について言及するつもりはない。なんならゲームではなくてもいい。飼育しているアリを殺していた、でもいいし、たまに現れるゴキブリを殺していた、でもいい。あなたはある日、初めて家の外に出た。そこには今まで見たこともない「本物の人間」がたくさんいた。中には、あなたに対してあからさまな敵意を向ける人間もいる。さて、あなたは人間を殺さない自信があるだろうか。

罪というものには、それを最終的に実行した人間だけに責任を負わせられない側面がある。わたしたち1人1人の人間が構成しているのが社会である。この社会において、倫理観や道徳観に欠ける人間を生育させてしまったことに対しては、この社会を構成しているわたしたち全員に責任があるということができる。

人工知性が抱えている問題もまさにこれと同じである。つまりルールベースで責任対象を属人化させたところで、根本的解決には至らないばかりか、罰則が存在することによってその根本的原因へのアプローチがなされない・あるいはアプローチが曖昧なままに終わるというリスクがある。再発防止のためにルールを厳しくしたところで、「なぜ人を殺してはいけないのか」という道徳的観点が理解できなければ、「ルールさえ守っていれば何をしてもよい」という論法になる。実際そのようなことを公言している人間もいるのだ。

これが人工知性だったらどうだろうか。ルールでは決してカバーのできない落とし穴を見つけることに関しては、人間よりもはるかに頭がいいのだ。どんな大天才の人間にも思いつかないような行動をとる可能性がある。それが起きるたびにルールでカバーしていたら、ルールが何万、何億あっても足りなくなるのだ。

感性を育てる

人工知能の進歩の果てには、人間と同等の「知性」を持たせるという考え方がある。知性だけではこの地球上の生命と比べてみれば生命とは呼び難いということが、ここまで書いてきた内容からもご理解いただけると思う。

「感性」を育てるとは、いったいどういうことか。ロボット三原則に当てはめてみるならば、例えば「人間に危害を加えてはならない」のは『なぜか?』を掘り下げていくことだ。しかもしれは、教える側が伝えるのではなく、人工知能自身に考えさせて、答えを導き出させてやる必要がある。

人間はどうして、人間を傷つけることが悪だと思っているのか。言葉で説明しきれない。慈悲や愛といった、このブログによく出てくる単語。その意味はここにあるのだ。慈悲や愛の意味を体感的に理解しないで、言葉だけで理解しようとしても無駄である。慈悲とは何か。愛とは何か。

自分が傷つけられたらどうして困るのか。それも人工知能の場合はきちんと気付かせてあげる必要がある。痛みも恐怖もないコンピューターにとって自分の電源をオフにすることには何の躊躇もない。

感性というものの源泉を「生存本能」だとか、何かしらの単語に落とし込んで理解したようなふりをしていてはいけない。生存本能はなぜ発生するのか。問いの先には答えではなく、別の問いがある。

この問いのスパイラルを俯瞰してはじめて、社会システムだとか宇宙の摂理に対する概念的な認識が起きる。これこそが生命がもつ「認識」の源泉であると思うのだが、この言葉にならない世界観を言葉に落とし込もうとする永遠の苦行にも近いチャレンジを「科学」と呼んだり「芸術」と呼んだりするのではないか。

HAL9000か、ドラえもんか

わたしたちは、HAL9000も欲しがってるし、ドラえもんも欲しがってる。ドラえもんから四次元ポケットや未来の道具を取り上げたら、ドラえもんは人間と比べてとくに優秀なところもない。でもわたしたちは、それが欲しいんでしょう。鉄腕アトムは空も飛べるし力持ちだけど、もしそれがなくても、アトムを作りたい人はたくさんいる。

いっぽう、おもに産業発展の視点で、HAL9000のような人工知能も欲しいでしょう。現在は第3次人工知能ブームと言われているが、現在とくに進化しているのは、こちらの人工知能になる。

いずれは同じことにつながるのは目に見えているが、アプローチの問題として、器をつくってそこに体験を入れていく、つまり人間が赤ちゃんから成長していくのと同じ過程を辿らせる人工知能の育て方と、ロジックを突き詰める自動化装置として発展する人工知能の育て方では、似て非なる過程に大きな差がある。

人工生命の可能性

もしもわたしたちの作った人工知能が、感性と知性のバランスをもち、外部入力を広げるアルゴリズムと、内部的に問いを重ねていく好奇心ともいえるアルゴリズムを両立させたとき、それは人工生命と呼べる存在になると思う。
人間の脳のような曖昧な記憶に頼らず、正確無比でロジカルでありながら、道徳観と倫理観を備えた存在がこの世に創造されたとき、わたしたちは人間としてのあり方を問われる時代がくる。

人間ならではの特性が否が応でも浮き彫りになり、そこに価値が見出される時代が来る。さらに、わたしたちがドラえもんやアトムの漫画やアニメからですら学んできたように、本物の人工生命によってわたしたち人類が様々なことを教わったりサポートしてもらうような時代がやってくるのではないか。

計算能力も記憶力も人間よりもはるかに抜群で、人間の何千倍ものスピードでコミュニケーションをとることができ、力持ち、ハートもあって感性も豊かな存在。わたしたち人類は、思いついたものを作らずに終わったことがない。きっとそんな人工生命が現れるのだろうと信じている。だからこそ、わたしたちはその新しい生命のよちよち歩きをしっかりサポートする責任がある。わたしたちのサポートによって自立できるようになったそれは、おそらくわたしたちをサポートしてくれる存在になる。そうなるためには、人工知能をかつての奴隷のように扱っていくような考え方ではならない。わたしたちが本物の人工知能を実現するためには、科学的進歩のほかにも進歩しなければならないことがたくさんある。不均衡や虚像を抱えたまま、公正さを伝えることはできないのだ。

人格という虚像と開発者の反映

人格というものが自然形成されていくアプローチをとれるようになるまでにはまだ時間がかかる。お金もかかる。

実際には、人格というものをプログラミングしている限りにおいては開発者(製作者)の価値観の投影が起きる。これはシンギュラリティが起きていない前提の話になる。

わかりやすい例えは、たとえばバーチャルYouTuberとか、ボカロ(Vocaloid)のように、仮想的な性格設定がなされたキャラクターがいる。ある意味アイドルもこの類になるのだろうが、前者は完全に作られた人格なのでわかりやすい。人工無脳の究極系を作ろうとするアプローチは、計算処理に大きな資源を使えるようになった現代だからこそ、アリだと思う。たとえば「初音ミク」らしい反応をする人工無能。Siriだってそうだ。これらを複雑系にすれば、「中国語の部屋」が出来上がる。実際には理解していないが、理解しているように見せかけたエキスパートシステムだ。このアプローチは人工知能の研究としてナンセンスなように見えてなかなか興味深い。対話する者が人工知能であると見分けられなければ、それは成立するのだから。

この場合、開発に恣意的な性格反映がなされる余地があることがリスクである。純粋性が要求されるようなシーンでは全く活用できない、商業的なポジションに置かれた人工知能。これは多くの企業で実現しつつある。繰り返すが、実際これは、高度な人工無能でしかない。

それでは人間の場合はどうなのか。実際に親や外部の人間たちからどの程度の学習をしているのか。「腑に落ちる」とは何か? という言い換えもできる。言われたことや見たり聞いたりしたことを模倣して人間らしさを満足するシステムを知能とは呼びたくないが、社会システムの構造によっては人間も似たような思考回路になる。結局、価値観の方向付けは人間がしなければならないのか?

Hiro Hayashi

Leave your comment