- ホーム >
- 連載 >
- コラム・レポート >
- 腫瘍内科医のひとりごと
腫瘍内科医のひとりごと 151 気になるチャットGPT
数年前、車のナビゲーションで大変な目にあったことがある。ある地方で、タクシーで空港に向かった。ところが、着いた先は田んぼの真ん中。空港は見当たらない……。車のナビゲーションの指示した先が違っていたのだ。
運転手は、タクシー会社と電話で連絡し合いながら、謝りを繰り返した。幸いにも飛行機の出発時間には間に合ったが、運転手がカーナビを信じきって運転したのが間違いであった。後で、タクシー会社からお詫びの果物が送られてきた。
医療への応用は慎重に
車のナビとは違う話だが、対話型AI(人工知能)チャットGPTが話題になっている。ある知人の話では、たとえば、大臣の国会答弁は、まず、チャットGPTに書かせて、それを官僚の担当が手を入れることで、国会答弁前夜の作業がスムーズに進むというのだ。しかし、どう考えても大臣の答弁が、チャットGPTが作ったものだとは思いたくないのだ。
自分で考えて、自分で文章を作るのではなく、便利だからといって、先にチャットGPTに書かせて、それを読んで、自分の文章として作っていくとしたら、それは本当にそれでよいのだろうか?
人は、先に答えを見てしまうと、深く考えなくなるのではないかと危惧するのである。以前、大腸の内視鏡検査で、試作のAIが「この場所を生検してください」と指示しているビデオを見たことがある。
AIが診断をサポートすると「より正確になる」「見落としが少なくなる」と聞くが、まったくの間違いかもしれないのだ。一方では、検査医がAIの指示どおりに従い、見ている場所が本当にがんなのかどうかを考えなくなるのではないか、と心配にもなる。
一番の問題は、AIの情報が必ずしも信頼できるものではないことだと思う。それを考えると、現段階での医療への利用は問題があるように思う。また、患者は惑わされる情報が増えることにもなる。
標準的な治療ガイドラインで、同じがん、同じステージでも、個々の患者によって選択肢は違うことがある。個々の患者の置かれたいろいろな状況で違ってくる場合はたくさんある。
AIの利用は、まず、自分で考えるということが減るのではないか。この点で、心配なのは、子どもの教育だ。文科省は、学校向けのガイドラインを作るらしいが、先にAIに答えを聞いてしまうと、自分で物事を考えなくなるのではないかと心配なのだ。
人間は、安易な方向に行きたがることがあるから、物事を深く考えることが少なくなるのではないか。さらには心の問題には、どう関わってくるのだろうか?
チャットGPTが書く小説はどうなのか。何か、ますます機械に支配され、人間の個性を失っていくような気がしてしまうのである。考えて、考えて造られたであろうチャットGPT。「面白い」「冷静に情報を見て、自分との間隔を空けて考えたほうがいい」との意見も聞く。
最近になって「チャットGPTの生みの親サム・アルトマンをはじめAIの権威たちが米議会で証言し、AIの将来について懸念を表明し、暴走の危険を警告した」とのニュースがあった。
チャットGPTがバージョンアップして、人間社会ではどのような存在になっていくのだろうか? 歴史上、大きな産業革命となるのであろうが、医療への応用は慎重にも慎重であって欲しいと思う。