韓国で、SNSに投稿された知人女性らの顔写真などを人工知能(AI)で合成して作られた精巧な性的画像がインターネット上で拡散し、政府が対策の強化に乗り出している。「ディープフェイク」と呼ばれるこれらの偽画像に関する被害を申告した小中高校生は今年1月以降、200人近くに達した。被害者だけでなく投稿者の側も未成年者が多いといい、深刻な社会問題となっている。
問題が注目を集めたきっかけは、8月下旬以降、次々に報じられた韓国メディアの報道だ。匿名性の高い通信アプリのテレグラム上に、性的な偽画像のほか、住所や名前などの個人情報を共有するチャットルームが大量にあり、学校別や地域別に分けられていると報じられた。お金を払えば、送った写真をひわいな画像に加工するチャットルームもあり、問題が発覚した時点で約22万人が登録していた。
教育省によると、1月から8月27日までに、186人の小中高校生から被害の申告があった。10人の教員からも被害の申告があった。同省は緊急の対応チームを設け、被害状況の把握や心のケアなどにあたっている。
「私も潜在的被害者」
デジタル化が進む韓国では…