これまで、医療とAIがコラボレーションすることによる夢のような技術を紹介してきました。しか
し、すべてのものには良い面もあれば悪い面があるもの。AIも例外ではなく、AI社会はさまざ
まな問題をもたらします。今回は以前のような技術についての話題から離れ、AIの医療を含
めた社会への影響という面から考えていきましょう。

■悪用の可能性
第8回「AIの民主化」で紹介したように、誰でもAIを使える社会を目指して世界的な企業は日
夜努力をしています。しかし、誰でもそうした強力なツールを使えるようになれば、悪いことに
利用しようと考える人も出てきます。つまりAIを利用して、犯罪行為などに走る人が出てくる可
能性があるということです。

もっとも悪用される可能性は、新技術にとって宿命のようなもので、インターネットが便利な反
面悪用もされているように、AIばかりを責めることはできない問題です。技術を使う人間次第
ということですね。

■個人情報流出
AIはデータから学習して賢くなります。そのデータの中には、企業の持つ顧客情報など、一般
の人々の個人情報が含まれます。ゆえにAIが誰かにハッキングされたり、あるいは誤作動を
起こしたりなどして、個人情報が流出してしまうことが問題としてあげられます。

とくに医療において、自分の体についての情報は究極ともいえる個人情報であり、とりわけ、
遺伝子解析の結果についての情報は、変えることのできない宿命であるため、これが他人に
知られたときの被害は甚大です。たとえば、遺伝子解析の結果、自分ががんになりやすい体
質だとわかったとき、それを保険会社が知ると、保険への加入を拒否されたり、長く働けない
かもしれないということで企業が採用を躊躇し、就職にも影響してくるかもしれません。

■責任の所在の不明確さ
AIは自律的に動ける、いわば行為主体になれる可能性があります。そうであるとすると、「AI
が起こした問題の責任は誰にあるのか」という問題が浮上してきます。

たとえば2018年、配車サービスUberの自動運転技術を搭載した車が、走行実験中に通行人
をはね、死亡させるという痛ましい事故が起きました。このときには性能チェックのために人が
乗っていたそうですが、果たして責任はその乗車していた人にあるのか、それとも開発者にあ
るのかが議論の的になっています。

医療用AIに関しても、誤診があった場合の責任があるのはAIなのか医師なのかでもめる、そ
んな未来が想像できます。

昨今、少子高齢化で働き手が減る日本で、政府はAIを希望の星とみて、企業や社会のAI化を
推進する向きがありますが、上記のようなAI社会の影の部分にもしっかり目を向けているの
かについては疑問が残ります。現状、AIの責任の所在などについて明記した法律は日本に
はないようです。2018年現在の政治家の方々の目下の関心事は東京オリンピックなのかもし
れませんが、AI社会を考える際には、より大局的かつ長期的に社会構造の変化を見通してい
くことが必要でしょう。

次回は最終回です。最終回では皆さんにとって関心が高い、AIが人間にとって代わる可能性
について「医療について考えれば、「AI脅威論」への答えが出るかもしれない」というテーマで
お送りいたします。

医療者編集部
医療AIラボ
PAGE TOP