情報収集や言論空間の中心がSNSへと移りつつあるなか、事実関係を確かめる「ファクトチェック」の手段に、生成AI(人工知能)を使う人が増えています。
便利な生成AIに落とし穴は無いのか。誤った情報を信じたり、拡散したりしないためにはどうすればいいのか。欧州で偽情報対策に取り組む研究機関「欧州デジタルメディア観測所(EDMO)」のコーディネーター、トマゾ・カネッタ氏に聞きました。
- 偽情報追うSNS「覆面捜査官」 EU、「おすすめ」のアルゴリズム監視
――最近はわからないことがあると、ネットで検索するより、ChatGPT(チャットGPT)などの生成AIに尋ねることが増えました。
A その傾向は世界中で見られます。チャットGPTやxAIの「Grok(グロック)」のような生成AIは、大規模言語モデル(LLM)という技術を使っています。膨大なテキストデータを学習して、人間のような自然な文章を生成し、質問にも答えられるのです。
――日本では、グロックでファクトチェックする人が多いようです。
A 検証したいXの投稿に「グロック、これって正しい?」と書き込むだけで、答えてくれる。白黒がはっきりしている事実や、数字を確認する場合は、グロックは迅速で簡単です。
ですが、生成AIをファクトチェックの手段として使うことには、少なくとも三つの深刻なリスクがあります。
一つ目は、政治的な主体に操…