韓国では、AI=人工知能を使ってきわめて精巧な偽の映像や音声を作る技術「ディープフェイク」による性的な偽動画が、深刻な社会問題となっています。
今年5月、韓国社会に衝撃が走りました。
韓国 YTNのニュース
「ソウル大学の後輩など、女性たちの写真を合成してわいせつ動画を作り、流した疑惑で容疑者が捕まりました」
AIを使って性的な偽動画を作り、通信アプリ「テレグラム」で公開したとして韓国警察が摘発したのは、韓国屈指の名門・ソウル大学出身の男ら5人でした。
男らはソウル大学の後輩など、知人女性たちがSNSに上げていた写真や卒業写真などとわいせつな動画を「ディープフェイク」を使って合成して、「テレグラム」で公開。被害を受けた女性は、およそ60人にのぼるとみられています。
韓国ではこうしたネット上の性的な偽動画について監視を行う「放送通信審議委員会」が、サイト側へ削除するよう要請しています。
その件数は2020年には500件弱でしたが、毎年2倍に近いスピードで増え、去年は7000件を超えました。
ソウルの若者たちは。
「(SNSでは)非公開のアカウントの方をよく利用しています」
「アカウントを非公開にして、親しい人だけ受け入れています」
SNSに投稿した写真が悪用されることについて、不安を感じていました。
こうしたなか、行政が取り組んでいるのが。
「デジタル性犯罪AI監視システム」
AIを活用したモニタリングです。
ソウル市は2年前、ネット上の性被害に対応する支援センターを開設。問題がある動画を探し出し、サイトの運営側に削除を要請しています。
ソウルデジタル性犯罪安心支援センター長 ムン・ギヒョンさん
「できるだけ流出しないようにすることが非常に重要です。私たちも被害の申告があった場合には、できるだけ早く支援する努力をしています」
当初は人力頼みの作業でしたが、去年からは担当者が不在の夜間にもAIで被害動画を発見できるようにしました。
さらに、先月からは被害届けが出されにくい児童や青少年の動画もAIで見つけ出すシステムを導入しました。
システム開発者 キム・ジュンチョルさん
「(児童や青少年と)関連性の高い要素を探知して、子どもが被害に遭った動画なのか探し出す技法を使いました」
ソウル市は動画の発見から削除の要請までAIによって自動で行うシステムの開発も進めていて、被害の拡大を抑え込みたいとしています。
鄭重声明:本文の著作権は原作者に帰属します。記事の転載は情報の伝達のみを目的としており、投資の助言を構成するものではありません。もし侵害行為があれば、すぐにご連絡ください。修正または削除いたします。ありがとうございます。