AIは、解析する、ゆえにAIか

最近ブログらしいことをかいて、自分の考え方を伝えるための文章作成訓練にしようと思っていたのですが、なかなかネタが見つからずに幾星霜。

 

twitter上のやり取りで、下記の記事が少し話題になったので

140文字にも収まらない思考をここで書いてみようかなと。

 

headlines.yahoo.co.jp

 

※データソースや根拠なく、自分のこれまで聞いてきたことだけでの妄想が大半なので注意です。

 

院生時代に、他研究室の教授から聞いた話なのだが、AI技術の基になるニューラルネットワークと呼ばれる機械学習の発展技術は、その予測の正確性や、ロジックについて多方面から研究はなされているのだそうだが、その結果に対しては論理的に説明がなされて正しさについて議論されることはあまりないのだそうだ。

 

★以下、疎い私のために、ざっくりとした説明をいただいており、現在記憶をたどりながらなので、齟齬があるかもしれないであり、しかもこの記事のメインにはあまりかかわらないので興味がない方は読み飛ばしてください。

 

詳しい技術は、間違っているかもしれないのでちゃんとしたものを参照いただきたのだが、大枠のニューラルネットワークは「ニューロン」と「層」と呼ばれるものの組み合わせから特徴値を解析する。

1層目にはニューロが3個あれば、1層目で3個のニューロンがそれぞれの解析を行い次の層にある各ニューロに特定の組み合わせで解析値を送り、受け取った次の層のニューロンはそれをもとにまた解析を始める。

さらにニューラルネットワークの学習時(正解データの解析方法を調整する、セットアップみたいなもの)では、もしがボールを正解データとして与えており、似たようなボールを与えて解析させ「ボールではない」との不正解の判定をした場合、各ニューロンでの計算方法を見直させ、正解と判断できるようにしていく。

これをボールと呼ばれる類と呼ばれるいくつかのパターンを解析させ、正解か不正解かの判別を行せ、上記の調節を行わせると今まで判別させたことのないボールでも、ボールとして判別できる制度が向上されていく。

 

ここにわかるように、ニューロの補正された値については、正解データと学習させるときに使用してきたデータよって判別ロジックは複雑化してくる。

この点が、論理的に説明がなされて正しさについて議論されることはあまりない理由と聞いた。

 

★余談終わり

 

出された特徴値の差異を把握し予想して、退職するかどうかという上記の記事であるがふと思うと、これはもう、ある一人の人物のデータを与え続けて微妙な変化をキャッチし、「なんか変だからこの人退職するよ」というのは、AIがそこまで来たのだなぁと思った。

微妙な子供の変化をキャッチするお、親さながらの「なんとなくそう予想された」なのだ。その不可解な論理的に説明できないような脳の反応を「心」と呼ぶのであれば、ここに言葉を自動で示すような機能が付けば、ロボットがより人間に近くなったと思うだろうか。

 

いつか、AIが予測したことを、何故そう予測したかを他のAIが予測し始めるかもしれず、それはもう哲学で、「頭」だろうかと、少しだけ思った。