宇田川敦史・武蔵大准教授=2025年5月30日、東京都練馬区、後藤遼太撮影

 分からないことは、生成AI(人工知能)に聞いてみよう。そんな使い方をする人が増えています。日常のちょっとした疑問にとどまらず、最新ニュースを調べる時までAI頼みになった時、ニュースメディアに活路は残されているのか。AIやアルゴリズムに詳しいメディア論研究者の宇田川敦史・武蔵大准教授に聞きました。

AI要約に飛びつく人たち

 ――スマホで検索をすると、真っ先に「AIによる概要」が目に飛び込んできます。わざわざ報道機関のサイトを見に行かなくても、大体のことは分かるような気もします。

 AIの要約をパッと見るのは、コスパがよくてある意味合理的です。そういう使い方はどんどん増えるでしょう。

 私たちは「情報過多社会」に生きています。情報量が爆発的に増え、人が処理できる許容範囲を超えています。

 こうして、必要な情報を見極めることが難しくなった状態を「情報オーバーロード」といいます。人が情報を処理する容量を「認知資源」といいますが、オーバーロード状態では、人は自分の認知資源を節約しようとします。

 「AIによる概要」に飛びつけば、色々調べて認知資源を費やさなくて済みます。その行為自体を否定することはできません。

 ――「AIによる概要」を作り出すのは、生成AIとネット検索を連動させた「検索拡張生成(RAG=ラグ)」という技術です。生成AIが様々な引用元から関連情報を抜き出し、組み合わせて回答を示すという仕組みですが、AI企業がニュースメディアの記事を無断利用するなどの問題も起きています。

 情報オーバーロードは今後もどんどん進み、RAGのような使われ方は止めようがない。RAGに頼る人が一定数いる状況も変わらないでしょう。

「夫婦別姓訴訟」をグーグルで検索すると、一番上に「AIによる概要」が表示される

 一方で、現状ではAIが誤った情報を生み出す「ハルシネーション(幻覚)」問題もあり、精度が上がっても、最終的に正しさを保証できるかというと、根本的な解決はありません。

 もし、新聞社など比較的信頼性が高い情報を生みだす企業が団結して、生成AIを徹底的にブロックすれば、AIが学習するのは怪しい情報ばかりになり、信頼性は下がっていくでしょう。

マスコミは「AIの材料屋」になるか?

 ――米紙ニューヨーク・タイ…

共有
Exit mobile version