人工知能というのは中身がブラックボックスになっているということが問題であると強調されていた。私は人間が作ったものであれば必ず中身もわかると思っていたのだが、そうではないのかと驚いた。
ミッションクリティカルなものに使用するには大きな不安があると思う。人間が判断をする際には根拠が事細かく求められ、その根拠ゆえに納得することもできると思う。
もしかしたら人間が判断するときのバイアスを取り除けるのかもしれないのでその点では有用ではあると思う。
容疑者の候補を作り出してしまうと指摘されていたが、人間の場合はどうだろうか。一度犯人だと思い込むとその人のことばかりを徹底的に調べて結果的に真犯人を取り逃がしてしまったということがあると思う。
もう一つ例をあげよう。「高校中退・フリーランス」のAさんと「有名大卒・若くして巨大組織のトップ」のBさんがいた。このどちらかが事件を起こした場合、真っ先にAさんを疑うだろう。
しかしAさんはスポーツ選手・Bさんは詐欺集団の組長、という場合もありうるのだ。
こういった偏見というのをなくせるのであれば、冤罪の抑止にもつながるのではないかと期待している面もあるのだ。
もちろんAI自体もバイアスを受けることはあるだろう。
MicrosoftのJK人工知能「りんな」が暴言を返したり、同社の「Tay」が人種差別の発言をするようになってしまったりした件が記憶にある。いずれも一部の過激的なユーザーによる学習のいたずらという説はあるが、こういった事象もあるのだ。
人間であっても悪意のある言葉を言われ続ければ、その人自身もそういった言葉を学習し使用するようになるリスクはあるが、顕著になることはないと思っている。
これは人間の学習能力がAIよりも優れているということではないと思うが、ある一定の倫理観を持っているからだろうか。
そうするとAIにも倫理観が必要だと思えてくるが、これには反対である。
なぜなら倫理観というのは特定の人間集団においてのみ有効であり、全人類に共通のものというのは存在しないからだ。
そして何より、「人間のコピー」が欲しいというわけではないだろう。人間よりも優れたものを創造したいのだから、そういった倫理観のような概念を学ぶことで、AIの進化が特定の人種の考えに染まったものになってしまい、期待通りの結果が出なくなってしまうかもしれないと思う。
特定の地域で使われるような遊び相手にできるロボットであれば、その地域の色に染まるべきであるとは思うが、どこまで地域を限定するかは問題になり、人間の偏見を学習させることになってしまうのだったら、それは要らないだろう。
ここで一つ富士通のディープラーニングの取り組みを紹介したい。
「ディープテンソル」という技術は、簡単にいうと「人とモノのつながりを表すグラフ構造のデータ」という表現を追加したモノである。これは推定結果だけではなく理由となる推定因子も出力されるのである。
「ナレッジグラフ」という技術は、knowledge「学術文献などの情報源から取集した情報を意味づけしてつなぎ合わせたグラフ構造の知識ベース」とされている。
これら2つの技術により、人間はどうしてAIが判断したかがわかるようになり、信頼に値するモノなのかを判断することができるようになるというわけである。
課題として、大量の学習データが必要になってくるため、「WideLearning」という複数のデータ項目を網羅的に組み合わせて判断するという技術が紹介されており、この技術が解決に期するとされている。
それでもAIが判断するのは考えられる全ての事象のうちもっとも可能性が高いものであるということはあるので、可能性の低くなりやすい特性をもつものの判断には難しいとも感じている。
最後に「恋愛相手」の選択をAIに任せるという例を考えたい。
マッチングアプリなどでの利用が想定されるだろうか。
人間の恋愛行動というのは心理学で研究されていることであるが、どの相手がいいかというところまでは導き出せていないのではないだろうか。
そして、異性の恋愛というのが前提に考えられていることが多くLGBTのケースを想定したマッチングアプリというのは主流とはなっていないと思う。もちろん最近ではそういったアプリもあるにはある。
そこにAIの視点を導入していくには先ほど取り上げたようにデータ数の不足という懸念があり難しいのではないかと感じている。
しかしながら、この問題点を解消することができれば、もしかしたら積極的にアプリを利用する人が増えるかもしれない。人間のような偏見を獲得しなければ、より幸せな形で恋愛活動ができるようになるかもしれない。
こういった形でAIが活躍することを祈念している。