エッセイ

大野正英 – AIに関わる倫理問題

※以下は、お問い合わせの多い「モラルサイエンス研究会」の発表要旨について、発表者がより詳しく記し、紹介しています。なお、本ページの最後にモラルサイエンス研究会へのリンクを付しています。

 

道徳科学研究センター 社会科学研究室室長 大野正英

 

●AIが引き起こす二極化

 近年、AI(人工知能)が社会の多方面で実用化が進み、今後もこの傾向はますます加速していくことは間違いありません。AIの進歩により私たちの生活は便利になりますが、その一方で深刻な問題を引き起こす可能性も指摘されています。
 AIに関して現在最も危惧されている問題が、労働に対する影響です。現段階ではまだ特定の機能に特化した「特化型AI」が中心となっていますが、特定の作業やタスクに限定されない幅広い領域で人間と同様の能力を持つ「汎用型AI」の開発が進むと、人間の労働が広範囲に機械に代替される可能性が指摘されています。機械による代替によって大規模な失業が発生するという「悲観論」に対して、AIの普及に伴って新しい仕事が生まれるという「楽観論」をとる意見もあり、専門家の間でも必ずしも結論は出ていないのが現状です。
 ただし、ほぼ意見が一致しているのは、中間層の仕事が急激に減少し、高度な創造性やコミュニケーション能力が必要とされる仕事と自動化を必要としない熟練度の低い仕事へと二極化するとの予測です。自律的な判断能力の高いAIが導入されることで、知的な労働であってもルーティーン的要素の高い業務は代替される可能性が高く、ホワイトカラーの仕事のうちかなりの部分がこうした中間的領域に該当すると考えられます。

 

●求められる法と倫理

 もしも大量の失業者が発生したときに、その収入と生活をいかに保障していくかが大問題となります。AIの導入によって社会に大量の富が生み出されますが、それを社会全体でうまく分配する仕組みが構築できなければ、大規模な貧困と格差が発生する恐れがあり、社会的な公正の視点から重大な問題となります。
 AIが従来の機械と大きく異なるのは、人間の細かな指示を受けなくても自らが学習して自律的に判断を下すことができるという点にあります。このことは、AIが下した判断に関する責任をどう扱えばよいのかという問題を提起します。具体的な例を挙げれば、自動運転車が事故を起こした場合、その責任の所在がどこにあるかが問題となります。搭乗者なのか、自動車メーカーなのか、あるいは開発者なのか、簡単に結論が出ない問題ですが、人間が運転するという前提でのこれまでの法体系では全く想定されておらず、新たな法律上の議論が必要になっています。
 また、AIが判断を下す場合には、そこに倫理的な要素が大きく関わってくる状況があります。倫理学でよく用いられる「トロッコ問題」という倫理的ジレンマに関する問題があります。「5名の人の生命を助けるために他の1人の生命を奪うことは認められるか」といった仮定の状況をめぐる議論ですが、自動運転技術に関しては現実に類似の問題に対する倫理的判断をプログラムに組み込んでいく必要に迫られています。具体的に言えば、自動運転車の前に突然人が飛び出してきたとき、それを避けようとすれば車が壁に激突して搭乗者を死なせてしまうといったケースです。現実には多様な状況が想定され、それぞれの場合に自動車がどのように行動するかはAIの判断に委ねられることになりますが、そのためにはAIのプログラムには予め何らかの倫理的判断が組み込んでいかなければなりません。現在では明確な結論は出ておらず、技術の開発と並行して倫理的議論が進められています。

 

●人間とAIの関係性

 AIの判断に対しては、どこまで人間がそれに依存すべきなのかという問題も生じています。現在、個人に関する多様な情報をAIに分析させ、能力や適性、信用度、将来の可能性などに関する評価をする利用法が急速に広がりつつあります。例えば、ローンの審査や従業員の採用、人事評価、病気のリスク評価、犯罪予測などへの利用などが進められています。本来はAIが示した判断を参考にして、人間が最終決定をすべきですが、現実にはAIの判断を追認することしかできないということになりかねません。ここで問題となるのは、AIの意思決定プロセスが複雑すぎて、人間が理解・検証できず、理由が明確にならないままに判断のみが示される、いわゆる「ブラックボックス化」です。正確な検証ができないまま、個人に対する評価が提示され、それが定着して独り歩きするという事態が考えられます。
 以上のような問題の根底には、「人間がAIをどこまで制御できるのか」という根本的な問いが存在します。本来は人間を補助するために導入したはずが、いつのまにかAIが主で人間がそれに従うという事態が予想されます。部分的であれ人間よりも高い知的能力を持つAIが登場したことにより、理性に意味を見出してきた人間存在そのものが問われることになります。AI技術が急速に進歩する中で、人間社会との関係をどう構築していくかについて、倫理や道徳の視点からの議論が喫緊の課題となっています。

 

参考:モラルサイエンス研究会 2018年6月6日発表要旨

モラルサイエンス研究会

道徳科学研究センター

Related Article

Category

  • 言論人コーナー
  • 西岡 力
  • 髙橋 史朗
  • 西 鋭夫
  • 八木 秀次
  • 山岡 鉄秀
  • 菅野 倖信
  • 水野 次郎
  • 新田 均
  • 川上 和久
  • 生き方・人間関係
  • 職場・仕事
  • 学校・学習
  • 家庭・家族
  • 自然・環境
  • エッセイ
  • 社会貢献

ページトップへ