特集記事

- C.C.,エディター

先月のニュースレターでは、ChatGPTの機能と応答の具体例を紹介しました。昨年末の一般公開から数か月が経過した今、ChatGPTの用途への期待、利用して明らかになった課題、そしてChatGPTの今後のバージョンアップで私たちの未来がどのように変わるのか掘り下げてみたいと思います。

Nature誌に掲載されたコメント記事では、ChatGPTに対し研究者らが抱く感情の典型例が示されていますが、漠然とした懸念が入り混じったある種の慎重な楽観論と言えそうです。著者らは、数ある用途の中でも特に論文の下書きや文献の要約にChatGPTがすでに利用されていると指摘しています。そして、ChatGPTがもたらす興奮を認識しつつも、結果責任や正確性、言語モデルのブラックボックス化などの問題があると注意を促しています。ChatGPTは説得力のある受け答えができることでよく知られていますが、偏った回答、事実と異なる回答、または論理的一貫性に欠ける回答が生成される傾向があるため、さらに注意が必要です(ChatGPTの不具合に関するGitHubリポジトリを参照)。ChatGPTのモデルはオープンソースではなく、作成者でさえその正確な仕組みを十分理解していません。したがって、この不完全ながらも説得力のある、人間のもつ専門知識の複製に依存することで引き起こされる可能性がある損害こそが、まさに懸念すべき点です。

こうした懸念をよそに、ChatGPTは依然として次の時代を象徴する存在です。研究者らは言語モデルに直接関連する驚くべき量の研究をすでに発表しています。中でも、こちらのプレプリントでは、ChatGPTを使用して放射線学のレポートを簡素化し、これまで専門家以外にはあまりにも不可解で専門的すぎた情報を患者が理解できるようにすることで、患者の自律性を高める可能性があると述べています。さらに別の掲載論文では、従来手間のかかっていた文献レビューの作成をChatGPTが支援することについて論じています。

ChatGPTが多くの分野で混乱を招く恐ろしい可能性を秘めていることは明らかです。しかし、恐怖と希望の両方をいっそうかき立てるものは、今後何が起こるのかという見通しです。AI時代の初期にあるこの言語モデルは、すでに非常に多くの能力を備えています。10年後にどのような進化を遂げているのか、想像さえできないかもしれません。

英語版はこちら