A Perspective Called Blackbox

この記事は約8分で読めます。

AIに関する概念的な思想だけ書き続けても同じような繰り返しになってしまいますので、今後は専門的な内容を具体例としてきちんとブログに書いていこうと思い立ち、AIのカテゴリを新設しました。今回から広義のAIにおける様々なトピックを取り上げ紹介をしつつ、個人的な見解を記録していきます。


今回は、ブラックボックス問題について。ブラックボックス(黒い箱)という言葉はコンピューター技術者の間では昔から多用されている表現です。入力と出力がついた黒い箱で、入力したものが黒い箱の中で処理され、結果が出力される。けれどもその過程は闇の中にある。それをブラックボックスといいます。

一方で、中身が把握できている場合、なぜそのような結果になるか説明がつく場合はそれをホワイトボックスといいます。

アプリケーションのテストにおいても、ブラックボックステストといえば「このプログラムにAと入力したらBと返ってくる」という仕様通りに結果が得られるかどうかをチェックするのみですが、ホワイトボックステストの場合は内部処理がどのような仕組みになっているのか(Aと入力したらどのようにしてBという結果が返ってくるのか)を試験者が把握していて、その上で考えうるテスト項目を作成し実施します。

AIにおけるブラックボックス問題

コンピュータは純粋に、入力情報を評価して、あらかじめ与えられたロジック通りに処理を実行して、その結果を出力します。電卓がわかりやすい例です。電卓に「3+4=」と入力すれば、内部的に3と4を足して、結果の7を返します。

入力に対してどのように処理するかを規定の手順で指示したものが、プログラムです。それでは昨今よく聞く機械学習やディープラーニングというものはどのような技術なのかというと、「どのような入力があったときにどのような結果を返すべきかの評価を機械自体に学習させる」と考えてください。

たとえば次のようなプログラムを作ったとします。
「画像データの70%以上が赤だったら、リンゴという文字列を返す」
この場合、単純に赤に塗りつぶされた画像に対しても、赤い自動車が大きく写った画像に対しても「リンゴ」という文字列が返ってくるでしょう。
そこでプログラマは、追加条件として
「赤い領域が丸い」
を指定します。この場合、赤いボールも「リンゴ」と判定されてしまいます。
そして青りんごに対しては「リンゴ」が返ってきません。

ディープラーニングにおいては、大量のリンゴの画像とリンゴではない画像をコンピュータに読み込ませ、正解も入力します。「この画像はリンゴ」「この画像はリンゴではない」といったイメージです。
コンピュータはその膨大な情報から、リンゴと判断すべき画像を学習していきます。あるところまで学習させると、新しい画像入力に対してもリンゴなのかリンゴではないのか、高精度に見分けることができるようになります。

ところがその精度が100%になることはありえません。そしてさらに、コンピュータが一体どのような基準をもってリンゴの画像とリンゴ以外の画像を見分けられるようになったのかは、人間にもわからないのです。すべての学習はアルゴリズムと評価関数によって実行されます。
この「どうして見分けたのか人間には説明できない」けれども「リンゴとリンゴ以外は高精度で見分ける(実用できる)」というところが、ブラックボックスであるということです。

これがどうして問題かといいますと、本当はリンゴなのにリンゴではないと判断する可能性が常に存在するからです(vice versa)。誤認識したときに、その理由が説明できないのです。人間だったら「光の角度でリンゴがリンゴに見えなかった」とか「画像が荒くてわかりにくかった」と説明ができます。しかしその説明が妥当なのかどうかも闇の中ですから、AIのブラックボックス問題も問題ではないと主張する人もいます。

ブラックボックス問題は、人の社会的・政治的・倫理的な問題とも関連するので、そのあたりはきちんと分けて話をしていく必要性があります。

たとえばある人工知能が、アフリカ系女性の写真を「ゴリラ」と認識してしまったことで問題になったことがあります。これはシステム的には完全にinnocenceで、例えれば子供が正直であるというような判断ができるinstituteならば完全に無視できる話ですが、世の中はそう簡単にいかないところがあります。

XAI(ホワイトボックス化)に疑問

ブラックボックス問題に対してXAIというこれまた新語が飛び出してきました。eXplainable AI(説明可能なAI)の略語で、ホワイトボックスAIとも呼ばれます。これは、AIが判断の根拠や解釈を説明できるシステムです。

これは数値化されていますが、その行く末はクオリア意識のハード・プロブレム説明のギャップという壁を超えられないことを暗示しています。「ならばどうして、その知能を知能と定義することができ、かつ人間の認知を超越できないジレンマを抱えたシステムを、大量の資本や資源を投入してまで開発する意義があるのか」という問題に突き当たるのではないでしょうか。

説明可能な範囲における判断しか提供しないAIは、個人的にはAIとは呼べません。人間の思考は体験による強い束縛のもとにあり、基本的に現在は3次元世界をベースにものを考えます。ところがコンピュータは、数百次元のレベルで論理的処理を行うことができるわけです。それを人間にわかるように説明することには限界があります。

意思決定

そもそもわたしたちは、人工知能に何を期待するのでしょうか。物事を正しく分類したり、実世界の情報を整理するために利用する、高度な処理システムとして期待しているのであれば、それは高度なエキスパートシステムに留まります。超高性能な電卓です。

人工知能に意思決定をさせることについて、それがどのような意味を帯びているのか文脈を掘り下げる必要がある時代になってきています。

「この政策を実施することによってどのような影響があるのか分析する」
「この政策を採用すべきか否か」

上記2文には大きな違いがあります。政策の採用・不採用の決断を人間に委ねられているのか、コンピュータに委ねるかの違いです。

人は意思決定にこそ人として生きる価値があり、進むべき方向性まで人工知能に依存してよいのかという倫理的課題に突き当たります。

そしてさらに、AI開発における倫理的なガイドラインをルールベースで管理しようという誠にアホらしい流れが真面目に語られている。それがどんなにナンセンスであることか。

人工知能だけではない

ブラックボックスについて言及するとき、実際問題として世の中のほとんどのアプリケーションがブラックボックスである事実にも目を向ける必要があります。あなたが普段使っているアプリはホワイトボックスですか? たとえばLINEのアプリが内部でどのような処理をしているか把握していますか? していませんね。商用プログラムの多くは著作権によってソースコード(プログラムの中身)が保護されていますし、中身は覗けないようになっています。これは、アプリの開発者という人間にとってはホワイトボックスですが、利用者にとってはブラックボックスであると表現できます。実際には利用者だけでなく、アプリを開発している組織内でも一部の開発者以外は中身を知りません。さらに言うならば、多くのアプリケーションは多数のプログラムで成り立っており、アプリケーションの規模が大きければ大きいほど、その全てを完璧に把握している人間がいる可能性は小さくなります。

意識と知能

生命において意識と知能の違いについてもきちんと語彙を分類する必要性があります。知能の定義が曖昧なままに議論を続けても平行線のままでしょう。知能とは、天文学的な計算を一瞬でできる能力のことでしょうか? 人間にはできない処理ができることでしょうか? もしそうであれば、電卓は知能と呼べるということになります。わたしたち人間の多くよりも、電卓のほうが計算処理において優れています。しかし電卓の場合は、入力するのはわたしたち人間です。肝要であるのは、わたしたちがなぜその計算をするのかを理解していて、その結果にどのような価値があるのかを把握していることです。

そのあたりを自由にするとすれば、人工知能というものは、所謂人工汎用知能(AGI:Artificial General Inteligence)としての発展という形になります。ところがわたしたち人間は新しい意識を観測する明快な手段を持っていません。

石ころに意識があるかどうかすらわからないのです。

こうした前提から、人工知能のブラックボックス問題というものの本質に切り込んでみましょう。それは、人間が未知のものをどのように処理するかという人間自身の課題でしかなく、システムそのものの問題というよりも、人間が過去に発明してきたあらゆるものと同じように、使う側のモラルの問題であるということがわかります。それは社会性や社会システムとは切っても切れない課題で、たとえばわたしたちが原子力をどうして戦争に使うことになったのかについて、資本主義という社会の形や、人間同士が互いに疑いを持つロジックがどこから生まれてくるのか等、数多くの広い分野にまたがる課題に向き合うことを余儀なくさせるものです。

おそらくわたしたちの人工知能研究開発におけるチャレンジは留まることを知らず、前に進んでいくでしょう。それは単純にわたしたちの情報科学の発展だけによるものではなく、認知や哲学といった広い分野にかかわる問題にまで発展するもので、情報科学分野や脳科学などの限定された部分にだけフォーカスしていては理解できない世界になっていくことでしょう。

心と脳の関係

現時点で人工知能研究はその知性(大脳およびその辺縁系)のハードウェア的な処理のエミュレーションや、認知をごく限定された条件においた研究に留まっています。ところがわたしたちの大脳は一般的にはただの処理システムであり、意思発生のメカニズムは器質的にも情報的にも解明されていません。

宇宙人が作った装置に流れている信号が解読できなくても、同じ材質で同じようなハードウェアを作ったら似たようなものはできるでしょう。

わたしたちは、たとえば触覚ひとつ取り上げてみても、意識下に届く情報は、皮膚が得ている情報の1/1000程度であることをご存知でしょうか。この世界にはまだまだ未知の世界が広がっており、その世界観を共有せずに特定の分野だけが独自の解釈でものごとを進めていっても、結局はどこかで足止めを食らう結果が見えてしまいます。

ブラックボックス問題においても、人間社会における縦割り問題が顕在化すること(既にその傾向にあること)から、まずは組織の多様化を正常維持できる、オブジェクティブな組織モデルが実際に成り立つことを期待します。

コメント