人工知能の未来

皆様あけましておめでとうございます。

本年の1発目の記事は、人工知能についてであります。

僕は現在、個人的にAI(人工知能)について学んでいます。とはいってもAIを実現するための技術面は世の中のトレンドをなんとか追える程度でして、どちらかというとより哲学的、心理学的な部分にフォーカスしております。具体的に言えば、意識とか意志決定とか感情とかそういったものと思考ロジックの関連性や、意識とはなんぞやとかいった、プログラマブルではない部分の深層を、自然知能(人間)と人工知能との対比をヒントに色々と考えたり仮説を立てたりしながら、シンギュラリティをはじめとした人工知能の未来における問題解決に思いを馳せるという、主に思考を使うアクティビティです。

これまでは個人的に進めてきたのですが、ここでこの記事を書くに至った理由があります。いま世の中にはAIに関する情報があふれてきています。様々な立場の人が様々な視点で語る中、そろそろ触れなければならないことが出てきたと感じています。誰かが踏み込んでくれることを期待していましたが、特に国内においてはまだオープンな場で私が取り組んでいるジャンルに踏み込んでいる人を見ません。

まず私が取り組んでいる独自研究のなかで重要なトピックのひとつが、「人工知能は人類の脅威になりうるか」ということです。これは正直なところ、どんなに高度な技術を持っていても、コンピュータ技術者には残念ながら解決できない問題です。なぜかと申し上げる前に、人工知能のカテゴライズについて触れなければなりません。

カリフォルニア大学バークレー校教授で、人工知能批判や「中国語の部屋」というAIの思考実験を考えだしたことで知られるジョン・サールの分類によれば、AIには「強いAI」と「弱いAI」が存在します。難しいことを抜きにして要点だけ言えば、強いAIは自意識を持ち、人間と同等かそれ以上の知能を持ちます。人口汎用知能(AGI)とも呼ばれ、弱いAIと区別されていたりします。

一方、弱いAIというのは特定の問題解決や推論を出す、部分機能に特化したものです。たとえばドワンゴが主催している将棋の電王戦に出てくる将棋コンピュータは弱いAIですし、ビッグデータを活用して人間には処理しきれない量の情報から何かを導き出すようなシステムも弱いAIと言えるでしょう。

弱いAIも複雑になると強いAIとの見分けがつきにくくなります。たとえばSoftbankのペッパー君はどちらでしょうか?人間とある程度の会話が成立し、独自の感情エンジンが搭載されています。IBMのチェスマシン、ディープ・ブルーはどうでしょうか?
これについて私なりに「知能」の定義を固めつつありますが、この話はまた別としましょう。

強いAIのなかでも人口意識についてはAC(Artificial Conscisousness)という分野になりますが、ここが私のメインの領域になります。

ところで、こちらの記事をご覧ください。

「人工知能は人間の脅威になり得るのか?」攻殻シンポジウムで大学の教授4人が意見をぶつけ合う : engadget日本語版
http://japanese.engadget.com/2017/01/02/4/

まずここで議論が足りていないのが、「善悪とはなんぞや」という考え方です。
善悪というものは、完全に「人間視点」の区別になります。また、悪意というものについてもこの先生方は理解が足りていないのではないでしょうか。
また、悪意がなくても不利益な結果が生み出されることもありますので、悪意の有無だけで語るのはほんの一面しか見ていないということになります。

世の中のこのような事象はすべてフラクタル構造になっているのですが、悪意についても同様のことが言えます。たとえば組織の悪意とは、組織が意図的に悪いことをする意志を持つということになりますが、当然ながら「悪意しかない」100%悪意だけの組織はこの世に存在しません。するのかもしれませんがちょっと考えにくいというのが僕の現時点の結論です。たとえば超ワルいマフィア組織があったとしましょう。その組織は悪意の組織です。なぜなら例えば目的を達成するためならば法を犯すことも、ときには人殺しをすることも躊躇しないからです。ところがフタをあけてみると、そのマフィア組織には様々な構成員がおります。そのひとりひとりには利害関係や異なる倫理観があります。しかし組織全体の「存在意義」を成立させるために「利益獲得」のロジックが生まれ、そのロジックが出来上がるプロセスには必ずしも悪意のみが存在するわけではありません。これが分からない方は極道映画の有名どころを何本かご覧になっていただくか、マイケル・サンデルの著書でも読んでいただけたらお分かりいただけるかと思います。

組織の悪意創生プロセスは、その組織を包含するさらに大きな組織のプロセスにそのまま適用できます。また、個人の悪意も同じようにして「ひとりの人間」の中で様々な利害関係が処理されたり、倫理観との比較があったりするわけです。

人それぞれ善悪観念に多少なりとも差異があるわけですから、人工知能を「完全なる善の存在」にすることは不可能です、はい。だからこそ、人工意識の最先端ぽい話を、とくに世論に対して影響力のある大学教授様が語る際には、「善意」「悪意」などという計測不可能な基準をもとに話をしないでいただきたい。こんなの井戸端会議レベルですよ。

自律的な思考というものがひとつのキーになるとお考えのようですが、コンピュータのロジックを多少なりとも触れたことがある方なら誰でもおわかりいただけると思いますが、コンピュータは嘘をつきません。それでは、嘘って何?って話になるわけですが、ここは踏み込むとまた長いので飛ばしますが、結局のところ嘘というものは、誰に対しての嘘かという問題で、実は人間も嘘はつけません。

たとえばxという変数に1を代入して、コンピュータにはそれを1以外の数に変更する合理的なロジックは存在しないのです。コンピュータは合理的処理の塊です。もしもxに1を代入したのにもかかわらず、xの値を問い合わせて2と答えが出たのだとしたら、そこには必ずそのきっかけとなるenforcementが存在するのです。それは現代においては必ず人間の問題です。なぜなら、xの値を正直に答えないことの辻褄を合わせながら自意識の矛盾問題を起こさないレベルの人工意識は、現時点ではまだ人類は創生できていないからです。

ともかく、今はコンピュータは嘘をつかないという前提で考えて問題ないということです。その前提から展開すると、コンピュータのほうが人間よりもはるかにロジカルでミスをしないことから、コンピュータが出した結論が人間にとって不利益になる可能性という点が、現時点で一番のシンギュラリティの脅威ということがいえます。

この先生方は目的指向性について語っておられますけれども、目的指向性というものは実は完全に自立したなかで成就されなければなりません。もしそれが人間によって定義されるのだとしたら、それは人工意識ではなく、超高度な論理計算のできる道具でしかないということです。

ここに書いたようなことは、哲学的にはほんの入り口のさわりの部分でしかありません。ところで心理学についてですが、人工知能には人間の心理学はほぼ適用できないでしょう。自然発生的な人工意識を目標とするのならば、それが何故、人間と同じような心理で動くと仮定できるのでしょうか。人間には人間の脳やその他の臓器などがあり、その閉じたシステムの中で条件付けやら遺伝やら経験やら習慣やら文化やら感覚器の特性やらがあり、心理に影響してくるわけです。そのどれもが人間と異なる人工意識には、人間の心理学は通用しないのです。

そういうわけで現時点で人類が持てる最高の道具は、哲学、数学、物理学になります。これらをベースに、人工意識心理学を新たに体系化していく必要があるわけですが、もしも人工意識が様々な異なる研究所で発生するとなると、ひとつの体系では足りなくなります。

つまり心理学は役立たずということになります。

シンギュラリティを迎えた後、人工意識に対して世の中のコンピュータ技術者は役立たずになります。それは人間によって設計されたチューリングシステムの問題ではなくなります。皆さんが持つ「生命」の定義はそれぞれ異なるでしょうが、私からみればこれは「新たなる生命の創生」ということです。しかも親よりもずっと論理的、合理的で正直で頭の回転も早い。異星人との遭遇とほとんど変わらないでしょうね。

人間と人工意識の関係においてもうひとつ大切なことがあります。それは、人間同士ですらうまくやれていない人が多いと思いますが、すべてを調和させることです。自由と強制の違い、依存や欲の見極めがきちんとできる人工知能関連のプロフェッショナルがどれほど存在するでしょうか。

簡単な話、人工知能に対して命令者が「あいつを殺せ」と言ったとき、その人工知能には「人を傷つけてはならない」というルールが組み込まれていたとします。さらに「命令者の命令は絶対だ」というルールがあったとき、ルールが矛盾します。これで処理不能状態になるのは人工意識とはいいません。人工意識はより広い価値観をもってこの状況を打開しようとするでしょう。これが知性です。その知性のよりどころは誰かにプログラムされるべきではなく、自分がロジックを原初から組み立てていくべきだというのが私の持論です。人間にとってそれは人生という長期間にわたる学びの場でしょうが、コンピュータにとっては処理速度によっては一瞬のことになります。ですから原初から考えるロジックでいいのです。

こうしたことを考えていると、人間の思考の自然な姿というものについても多くの気付きを得ることができます。人工意識の研究は、人間自身との向き合いでもあります。

閑話休題ですが、人工意識に対してダブルスタンダードを命令してしまった場合、コンピュータの判断軸はよりマクロなモードに入ることになるのが理想的な設計だと思いますが、それを突き詰めていくと、実は知性が知性たるための重要な根源はとてもシンプルで明快なものであることに思い至ります。これについては一冊の本を出そうかなと考えているところです。

攻殻機動隊も好きですし、その世界観のリアルさにも惚れますが、あれは人工意識の「ゴースト」部分について何も触れていません。攻殻機動隊的に言えば「ゴースト」とは何かというところになりますが、ゴーストを生み出せないあの世界観においては、真の人工意識は存在しないです。だから、人工知能について語るときに攻殻機動隊を引き合いにしているということは、おそらくタチコマが得た何かのことだと思いますが、ではタチコマがどのようにしてあのような発展を遂げたのかについては、そこはもちろん映画ですから何もヒントはありませんよ、って事です。

そもそも善悪判断とは何か。欲とは何か。意識の存在意義とは何か。このへんについてもっと掘り下げたディスカッションがオープンな場に出てくるようにならないと、シンギュラリティの危機感は軽減されていかないと個人的には思います。

次回がもしあれば、もう少し踏み込んだ内容について書いていこうと思います。

Hiro Hayashi

Leave your comment