2023-7-12
対話型AI「ChatGPT」(OpenAI社)の登場は,医療界にも大きなインパクトを与えた。すでに臨床や研究に活用する動きがある一方で,懐疑的な見方をする医療者もいる。生成AIは医療者にとって味方なのか,敵なのか。厚生労働省「保健医療分野におけるAI活用推進懇談会」構成員などを務めた東京慈恵会医科大学総合医科学研究センター人工知能医学研究部教授,部長の中田典生氏が語った。
急激な進歩で到来した第4次AIブームに混乱するIT後進国の日本
─生成AIが社会的な話題となっていますが,その理由,背景を教えてください。
全人類のブレインパワーをAIが超えることを「シンギュラリティ(技術的特異点)」と言いますが,2011年のTime誌に掲載された記事では,2045年に起こるとされています。そして,1人分のブレインパワーを超えるのが2023年だと予測されています。ChatGPTの登場は,この予測が的中していることを象徴する出来事だと言えます。東京大学教授で政府のAI戦略会議の座長を務める松尾 豊氏は,2022年12月〜2023年2月ごろ第4次AIブームに突入したと指摘しています。これは,ChatGPTが2022年11月30日に公開されてから,わずか1週間で100万ユーザーに達し,2023年2月にはアクティブユーザー数が1億人を超えたことを踏まえたものです。
このような状況の中で,IT後進国とも言える日本では,急激なAIの進歩についていけず混乱しています。そして,混乱した中でも,AIの進歩は非常に速く進んでいます。医療分野でも,ChatGPTに関する論文が次々と発表されており,急速に研究,活用が拡大しています。
生成AIは多くのメリットがある一方専門家が気づかない間違いをするというリスクも
─医療分野で生成AIを使用することのメリットは何でしょうか。
日本の医療は,デジタルトランスフォーメーション(DX)が遅れていて,特にAIの活用が進んでいません。そのため,非効率になっており,医師の働き方改革が必要な状況になっています。今後,生成AIを活用することで,労働生産性が向上すると期待されます。さらに,DXが促進されて,多くの業務がより効率化されるでしょう。また,AIによって効率化が進むことで,国を挙げて進めている電子カルテ情報の標準化や全国医療情報プラットフォームといった医療DX施策と相まって,例えば重複検査・投薬などの無駄がなくなり,国民医療費の削減にもつながると思われます。さらに,膨大な文献の検索などの作業効率が向上するため,医学研究も加速していくことも予想されます。一方で,患者がChatGPTなどを使って,自身の病気について症状や治療法などの知識を得ることで,医師とのディスカッションを通じて,最適な治療法を選択したり,診療支援を受けられたりするといったメリットもあるでしょう。
─生成AIを使うデメリットは何でしょうか。
生成AIの最大のリスクは,「ハルシネーション」です。この「ハルシネーション」とは何か,実例を説明します。ワシントン大学の笠井淳吾氏らが2023年3月に「arXiv」で発表した“Evaluating GPT-4 and ChatGPT on Japanese Medical Licensing Examinations”(https://arxiv.org/abs/2303.18027
)では,ChatGPTや,「GPT-3」「GPT-4」などの大規模言語モデル(LLM:Large Language Models)に日本の医師国家試験問題を解かせたところ,GPT-4は過去6年間すべての試験で合格点を取ることができたと報告しています。しかし,全問正解ではなく,正解ではあるものの日本語としては正しい病名ではないといった,高度な専門的知識がないと指摘できないような誤りをしていることがありました。これは,命にかかわる重要な問題に対して,専門家でも気づきにくい誤った回答をしてしまうという大きなリスクになります。
GPTについては,GPT-3まではパラメータが公開されていて,Webなどから収集した45TBのテキストデータを前処理した570GBのデータセットを学習に用いています。このデータセットに1750億個のパラメータを持つ自己回帰型言語モデルを学習させ,巨大な言語モデルを形成しています。さらに,2023年3月に発表された最新のGPT-4のパラメータは,約100兆個と言われています。これは人間のシナプスの数に近いレベルにまで達しています。一方,GPTに用いられている深層学習モデルのTransformerは,学習データが増大すると際限なく性能が向上する“Scaling Law(スケーリング則)”が示唆されています。また,GPTなどの一定の規模を超えた大規模言語モデルは,パラメータ数が増加してある値を超えると飛躍的に性能が向上する「創発」現象が確認されています。この創発現象こそChatGPTが第4次AIブームを起こした本質と言えます。しかし,なぜ創発現象が起こるのか,理由は解明されていません。大規模言語モデルは人間の言語中枢が解明されていないので,独自に開発されたものです。創発現象の原因が不明であるため,一部のAI学者は大規模言語モデルを用いた生成AIの開発が進むことを危惧しています。
患者に寄り添うという医療者として大切なことが生成AIにはできない
─生成AIが不得意なことは何でしょうか。
不得意なことをChatGPTに質問したところ,(1) AIであるため人間の「感情や主観性の理解」ができないこと,(2) 訓練データが2021年9月までのものなので「最新情報の提供」ができないこと,(3) 専門家レベルの「個別の専門知識」を持っていないこと,(4) 自己の経験や感情がないため「実体験に基づく助言」ができないこと,と回答しています。「実体験に基づく助言」ができないというのは,医療においては決定的なものが欠けていることを意味します。患者が辛そうにしているのを感じて自分の身になって考える,患者に寄り添うという医療者として大切なことをChatGPTなどの生成AIはできないのが弱点と言えるでしょう。一方で,GPT-4では,従来のテキストに加えて画像にも対応したマルチモーダル化しています。これにより,今後どのようなことが起こるのか,注目していく必要があります。
若手が生成AIを活用できるよう医療界や行政は支援をすべき
─生成AIの利用を促進する上で,医療界や行政にはどのようなことが求められますか。
今後,若手の医療者,研究者が生成AIを活用していくことなります。ですから医療界も行政も若手の意見を取り入れるべきです。さらに,生成AIを普及させるためには,既得権益者を味方につけることも重要です。生成AIは「もろ刃の剣」と言える存在であり,非常に役立つ一方で,大きな損害をもたらす可能性があります。既得権益者が損失を恐れて生成AIを排除することがないように,積極的に活用していくことが大事です。また,生成AIに対する規制が話題になっています。規制は必要だと思いますが,生成AIを普及させるためも規制を最低限に抑えるべきでしょう。そして,今後は人材育成にも力を注がなければなりません。そのためにも,義務教育の段階から生成AIの使う機会を設け,IT教育を促進する必要があります。教育現場での生成AIの使用については賛否両論がありますが,正しい使い方を学ばせることが大切です。いずれにしろ,生成AIは既存の職業のあり方を変えることを念頭に取り組むことが求められます。
─読者に向けてのメッセージをお願いします。
グーグル社とその親会社アルファベット社のサンダー・ピチャイCEOは,「AIは火の発見や電気の発明よりも人類にとってインパクトがある」と述べています。それだけに私たちは,根本的に,そして深くAIについて考える必要があります。一方で,第二次世界大戦時に英国政府が作成したポスターのコピー“Keep Calm and Carry On”のとおり,パニックになることなく平静を保ち,粛々と普段の生活や業務を続けることも重要です。そして,もう一つ,第二次世界大戦のダグラス・マッカーサー連合国軍最高司令官が退任演説で述べた“Old soldiers never die, they simply fade away”という言葉を申し添えます。若手がAIを活用する中で,年長者はそれを支援するだけにして,時として一歩引くことも大切な役目だと思います。
(取材日:2023年5月24日)
(なかた のりお)
1988年東京慈恵会医科大学医学部卒業。博士(医学)。同大学高次元医用画像工学研究所,放射線医学講座講師を経て,2011年に放射線医学講座准教授。東京慈恵会医科大学ICT戦略室室長,附属病院超音波センターセンター長などを経て,2020年から総合医科学研究センター人工知能医学研究部部長。現在,同部教授,部長。日本メディカルAI学会顧問のほか,2017年には厚生労働省の保健医療分野におけるAI活用推進懇談会の構成員などを務めた。