AIにディープラーニングさせるデータに偏りがあった場合、学習された知識にも偏りを生じてしまうことになります。これをデータバイアスと言います。
2016年3月、マイクロソフトのAIチャットプログラムが、一部の利用者が不適切にプログラムを調教したせいでヘイト発言をするようになり緊急停止させられた事件がありました。これもデータバイアスの一種です。
人間でも「誤学習」という言葉がありますし、子供の教育を間違えると犯罪者になってしまうという問題がありますが、AIにも同様の問題があるということです。AIにディープラーニングさせるデータの選定調整は注意を要するということです。
これから益々、社会のあらゆる場面でAIを利用することが増えてくると思いますが、その時に、AIにデータバイアスが掛かっていないかどうかは常に注意が必要になるのです。AIの学習に公的機関がお墨付きを与えるような制度ができるかもしれません。
IBMはAIのデータバイアスを検出するソフトウェア AI Fairness 360 を開発しました。
https://www-03.ibm.com/press/jp/ja/pressrelease/54345.wss
今後、AIに学習させるデータを用意する仕事や、AIにデータバイアスが掛かっていないことを証明する仕組みや仕事が必要になってくるかもしれません。それに従事する人間が必要になるのですが、問題はその人数が少ないことですね。そんなに多数は必要ないのです。