Smiley face
写真・図版
Xの生成AI「Grok」を使って投稿の「ファクトチェック」を試してみたスマホの画面=2025年7月23日、内田光撮影
  • 写真・図版

 情報収集や言論空間の中心がSNSへと移りつつあるなか、事実関係を確かめる「ファクトチェック」の手段に、生成AI(人工知能)を使う人が増えています。

 便利な生成AIに落とし穴は無いのか。誤った情報を信じたり、拡散したりしないためにはどうすればいいのか。欧州で偽情報対策に取り組む研究機関「欧州デジタルメディア観測所(EDMO)」のコーディネーター、トマゾ・カネッタ氏に聞きました。

  • 偽情報追うSNS「覆面捜査官」 EU、「おすすめ」のアルゴリズム監視

 ――最近はわからないことがあると、ネットで検索するより、ChatGPT(チャットGPT)などの生成AIに尋ねることが増えました。

 A その傾向は世界中で見られます。チャットGPTやxAIの「Grok(グロック)」のような生成AIは、大規模言語モデル(LLM)という技術を使っています。膨大なテキストデータを学習して、人間のような自然な文章を生成し、質問にも答えられるのです。

 ――日本では、グロックでファクトチェックする人が多いようです。

 A 検証したいXの投稿に「グロック、これって正しい?」と書き込むだけで、答えてくれる。白黒がはっきりしている事実や、数字を確認する場合は、グロックは迅速で簡単です。

 ですが、生成AIをファクトチェックの手段として使うことには、少なくとも三つの深刻なリスクがあります。

 一つ目は、政治的な主体に操…

共有