うそもつけるAIに真偽判定を任せる恐怖 池谷裕二
有料記事
池谷裕二の闘論席
人工知能(AI)に携わる研究者として、昨年末にデビューした「チャットGPT」について書かねばならない。
ここ1、2年で躍進したAI分野が、いわゆる「生成モデル」だ。作文したり、描画したり、作曲したりと、卓越した創作力を発揮するAIが次々と開発された。チャットGPTは文章を自動執筆するAIである。これまでは主に専門家が利用していたが、素人にも使用しやすいように改良され一般公開された。解説文や要約文のような機械的な作業はもちろん、物語や読書感想文でも創作力を発揮する。コンピューターのプログラムコードを書くこともできる。
私たち科学者にとっての脅威は、学術論文すら書いてくることだ。それも架空の実験データや文献を使った偽造論文だ。米ノースウエスタン大学のガオ博士らが、医学論文の要旨をチャットGPTに書かせ、論文審査員に判定させると、偽造を見抜けたのは全体の68%にとどまった。そこで博士らは偽造を見破る専用のAIを開発し、これを用いることで99%以上の精度での偽造検出に成功した。「AIのうそを見抜くのはAIの仕事」と…
残り347文字(全文816文字)
週刊エコノミスト
週刊エコノミストオンラインは、月額制の有料会員向けサービスです。
有料会員になると、続きをお読みいただけます。
・1989年からの誌面掲載記事検索
・デジタル紙面で直近2カ月分のバックナンバーが読める