◆光石会長月刊技術士寄稿◆

この記事は、月刊技術士2019年9月号に掲載されたものを、日本技術士会広報委員会委員長のご厚意により、転載させていただいたものです。

 

【MESSAGE】

デジタルレボリューションによる未来社会と倫理

Future Society with Digital Revolution and Ethics

 

光石  衛 Mitsuishi Mamoru
国立大学法人東京大学

大学執行役・副学長,大学院工学系研究科 教授
1986年東京大学大学院工学系研究科機械工学専攻博士課程修了,
工学博士。同年東京大学講師。1989年同助教授。1999年同教授。
2014 年同大学院工学系研究科長,工学部長。2017 年から現職。

 

 世界の大学や企業において将来の共通する目標としてSDGsを掲げているところが多いことは昨今よく知られていることと思います。SDGs(Sustainable Development Goals)とは,2015年に国連総会で採択された17分野における2030年までの持続可能な開発目標です。我が国でも,未来の日本社会の共通する価値観として,Humanity,Sustainability,Inclusiveness,Curiosityの4つのキーワードが注目されています。一方,内閣府ではもう少し近未来の具体的な目標として,第5期科学技術基本計画においてSociety 5.0を掲げています。これはIoT,ロボット,AI,ビッグデータをもととしたデジタルレボリューションにより経済発展と社会的課題の解決を図るもので,IoTで全ての人とモノがつながり,様々な知識や情報が共有され新たな価値が生まれる社会やAIが多くの情報を分析し活用する社会などを目指しているものです。交通,医療・介護,ものづくり,農業,食品,防災,エネルギーなどの分野における具体例も挙げられております。
 ところがこれらの未来像にある,誰もが豊かな暮らしの恩恵を受けることのできるインクルーシブな社会を実現するにも課題は多くあります。ここでその一つである倫理的な側面から見た課題にも注目していただきたいと思います。
 2017年から2年間,(独)医薬品医療機器総合機構(PMDA)の科学委員会の一つにAI専門部会が設置され,AIを活用した医療診断システム,医療機器の特徴,リスク,留意点などが議論されました。筆者は部会長として関係しましたので,そこでの議論を紹介いたします。
 医療分野では様々な診断・治療情報が電子データとして管理されており,AI の活用の可能性は大きくなっています。AIを搭載した医療システムは次の特徴を有しています:
(1) AI医療システムは学習により性能等が変化しうる(可塑性)。
(2) AI医療システムの出力の予測や出力結果の解釈が難しく,ブラックボックスとしての性質をもつため,AIによる処理を論理的に理解することや修正することが困難である(ブラックボックスとしての性質)。
(3) AI医療システムが高度な自律能を有するようになると患者と医師等に関係性が変わり,法的・倫理的議論が必要になってくる(将来の高度な自律能)。
倫理,責任に関する議論として,例えば,
- 現在のAI開発では医師の判断を教師データとして扱うことができるが,AI 医療システムが普及してその利用が当然となる将来も,これを続けることはできるのか。
- 優秀な医師以上の正答率があることが統計的に示されている診断支援AI(しかし,一定の誤りがあることもわかっている)と異なる判断をしたとき,そして,AI の方が正しかった場合に医師は訴訟で勝てるのか。
- AIの判断能力や手術能力が医師よりも高くなったとき,医師の職業観,使命感,充足感などに影響する可能性もある。
このようにAIを搭載したシステムでは様々な倫理的な側面を検討する必要があり,それは医療分野に限ったことではないと言えます。技術士の皆様にもこの議論を一助とされ今後に是非とも生かしていただきたいと思います。なお,内閣府の人工知能と人間社会に関する懇談会報告書や,総務省のAI開発ガイドラインも参考にしてください。
 2018年12月に東京大学出身の技術士が中心となり「赤門技術士会」が発足しており,産業界で既に実績をあげられている技術士の皆様が生涯を通じて,高い技術応用力と倫理観を保ちつつ,さらに研鑽され社会貢献されていることを大変頼もしく感じております。今後も,技術士の役割はさらに広がり,その厚みを増していくものと期待しております。(終わり)