政府の「人間中心のAI社会原則検討会議」が、AIに関する7つの原則をまとめました。
- AIは人間の基本的人権を侵さない
- 誰もがAIを利用できるよう教育を充実
- 個人情報を慎重管理
- AIのセキュリティーの確保
- 公正な競争環境の維持
- AIを利用した企業に決定過程の説明責任
- 国境を越えてデータを利用できる環境を整備
今回、特に注目して触れたいのはこの2つ
- AIは人間の基本的人権を侵さない
- AIを利用した企業に決定過程の説明責任
この2つは、AIの活用に大きな制限を加えることになると思います。
理由のないものの理由を説明せよという要求
というのも、今のAIはビッグデータを力技で解析しまくって、使えそうな相関関係を発掘しては色々試してみる、という感じの仕組みになっていることが多いのですが、例えばAとBに「相関関係がある」ということはわかっても、「なんでそうなのか」は通常わからないのです。
それは、AIの限界というよりも、統計という数学的手法の限界だと言えます。
しばらく前に、AIが囲碁のチャンピオンに勝って話題になりましたが、AIは人間から見ると全く無意味に見える手をちょいちょい打ってくるらしいのです。そして、そのAIを開発・育成した人にも、「なぜAIがそのように結論したのか」は厳密にはわからないのです。
ビッグデータを用いた研究には実にいろいろあって、例えば、顔写真だけを見てその人物の暴力的傾向や犯罪を犯すリスクを判定しようとする研究などもあり、実際に幾つかの外見的特徴とそれらの傾向やリスクとの間に、高い相関関係が見出されました。もちろん、この場合も、なぜそこに相関関係が生じるのか、についてはわかっていません。
なんでか全くわからないけども、そこに相関関係がある、その情報を用いることで、ビジネス上の利益があったり、不利益を被るリスクを減らせたりする。だから使っちゃおう、というのが許されるか否か。この差は非常に大きい。
今回示された方針がどの程度の厳密さと強制力を今後持っていくのかは未知数ですが、「決定過程の説明責任」と言われても、「そんなの誰にもわかりません」となるケースは多いでしょう。「じゃあそのサービスは使用禁止ね」ということになれば、AIを使って様々な「評価」を特に個人や人の集団に対して行おうとしている取り組みには大きなブレーキとなるでしょう。
責任能力のない知性の責任を誰が取るのか
例えば、如何に統計的に有意であったとしても、解雇や不採用の理由が「顎幅が一定以上に広いから」では、当人的には到底受け入れられないでしょうし。その説明が「決定過程の説明責任」を果たすものだと言えるかも、甚だ疑問です。
評価された側が、AIを利用した根拠のよくわからない評価によって不利益を被った、とか不当な評価を受けて基本的人権を侵害された、などと主張した場合、それが妥当なものであると説明する責任を負わされる、というのは導入を検討する企業にとって、相当面倒だし、怖い話だと思われます。
少なくとも今後「これヤバそうだからやめとこう」となるプロジェクトは一定でてくるでしょう。
「責任能力の無い知性」という厄介な代物をどう扱い、誰がその責任をべきなのか、ということが明確に問われ始めています。今後の動向に要注目ですね。