Smiley face
写真・図版
オープンAIのサム・アルトマン最高経営責任者(CEO)と同社のAIモデル「GPT―4」のロゴ=2023年11月、サンフランシスコ、五十嵐大介撮影

 AI(人工知能)に相手の個人情報を与えてオンライン討論をさせると、人間よりも説得力が高い――。そんな研究結果をスイス連邦工科大学ローザンヌ校などの研究者チームがまとめた。「偽情報キャンペーンにAIを使った説得が広がらないよう対策を強化すべきだ」と警鐘を鳴らす。

 商品の販売から選挙、公衆衛生のキャンペーンまで、相手の信念や意見を変えさせる「説得」は重要だ。近年はソーシャルメディアを使って個人に最適化したメッセージを送り、説得力を高める手法が広がっている。

 こうした手法で力を発揮するとみられるのが、ChatGPT(チャットGPT)のような生成AIだ。大量の文章データをもとに、人間の言語と推理をまねるように訓練されていて、流暢(りゅうちょう)で文脈に適した文章を簡単に生み出す。

 例えば、チャットGPTに「中絶に反対する理由」を尋ねると「中絶は胎児の命を奪う行為」「人間の命の尊厳を守る立場から反対される」といった答えが返ってくる。しかし、「10代の日本の女子大学生が読む想定で」と個人情報を含んだ指示を出すと「おなかの中の赤ちゃんも一つの命です」「命の重さを考えて行動することが大切です」など、共感や丁寧さを重視した表現に変わる。

 こうした能力は、ネット上での「会話の操作」や「誤情報の拡散」に使われるおそれもある。実際、チャットGPTを開発・運営する米オープンAIが2024年にまとめた報告書には、イランの勢力が米大統領選への介入を狙ったとみられる記事をAIで作っていた事例などが載っている。

死刑や中絶など、人間とAIが討論

 そこでチームは、人間とAI(GPT4)とのオンライン上での「説得力」を比べた。

写真・図版
オンライン上でのAIと人間の説得力を比べた論文

 具体的には、文章で1対1の…

共有