network
リポビタンD TREND NET

今、知っておくべき注目のトレンドを、ネットメディアを発信する内側の人物、現代の情報のプロフェッショナルたちが日替わりで解説します。

25.12.23

深刻化する18歳未満の性的ディープフェイク

null
ネットニュースの内側にいるプロフェッショナルがニュースを読み解きます。

ダイヤモンド・ライフ編集長の神庭亮介さんにお話を伺います。
神庭さんに取り上げていただく話題はこちら!


『深刻化する18歳未満の性的ディープフェイク』


吉田:生成AIなどでわいせつな偽画像を作成する『性的ディープフェイク』をめぐり、18歳未満の子どもたちの被害が深刻化しています。警察庁は17日、今年1月から9月にかけて79件の相談・通報があり、被害者の8割超を中高生が占めたと発表しました。しかも加害者の半数以上が、同じ学校に通う生徒だったということです。そこで今朝は、子どものディープフェイク被害の現状と課題について、神庭さんに解説してもらいます。


ユージ:改めてですが、『性的ディープフェイク』とは何なのかを教えてください。


神庭さん:AIを使って生成された偽画像・偽動画を『ディープフェイク』と言いますが、そのなかでも、服を着ている写真を裸に加工するなどわいせつ目的のものを『ディープフェイクポルノ』とか『性的ディープフェイク』と言います。昔は『アイコラ(アイドルコラージュ)』と言われるようなものがありましたが、首から上の写真をすげ替えただけで、一見してウソとわかるような粗雑な加工でした。ところが、今のディープフェイクは非常に精巧で、パッと見では本物か偽物か区別がつきません。しかも、ターゲットが有名人・著名人だけでなく、あらゆる人が被害者になり得る状況ということなんですよね。


吉田:今回発表された警察庁の調査結果について詳しく教えてください。


神庭さん:今年の9月までの調査で、18歳未満の子どもの性的ディープフェイクに関する相談は79件ありました。被害者の内訳を見ると、小学生が4件、中学生が41件、高校生が25件で小中高と合わせて88%を占めていて、小学生まで被害に遭っているというのは、とんでもないことだと思います。一方、加害者側は「同じ学校の生徒」が42件、53.2%を占めています。2番目が「SNSでの知人」で5件、「その他(学校職員ら)」が5件で続きました。名誉毀損などで摘発されたケースが4件、指導・警告が26件、補導が6件あったそうです。


吉田:非常に心配な状況ですが、実際にどんな事例が起きているのでしょうか?


神庭さん:JNNによれば、ある男子中学生が、同級生の女子生徒がSNSにアップした画像を生成AIで裸の画像に加工し、他の同級生に販売したという事例があります。また別の男子中学生は、学校のタブレット端末を悪用して、学校行事のアルバムに載っていた同級生の女子生徒の写真を性的な画像に加工し、複数の同級生にグループチャットで拡散したという事例もあるそうです。


ユージ:これはもう本当に悪質でもありますし、ほとんどが同級生というのが、ちょっと怖いですよね。加害者に同級生や同じ学校の生徒が目立つのはなぜですか?


神庭さん:1点目は、あまりにも簡単・手軽にディープフェイクが作れてしまうというハードルの低さがあると思います。2点目は、倫理的に未成熟で善悪の判断があやふやな子どもが、安易に飛びついてしまう情操面の問題ですね。背景には、わいせつ目的だけでなくて、いじめや人間関係のもつれが潜んでいるケースもあるようです。なかにはゲーム感覚で手を出す子もいるのかもしれないですが、これはれっきとした『性加害』なのだということを明確にしておかないといけないと思います。


ユージ:性的ディープフェイクって、子どもでもそんなに簡単にできてしまうものなんですか?


神庭さん:残念ながら作れてしまうんですよね…。卒業アルバムなどが悪用されているということで、デジタル性暴力のパトロール活動を行う『ひいらぎネット』に取材したFNNの報道によると、未成年者の性的ディープフェイクは、今年の3〜6月だけで252件もSNS上で確認されています。卒業アルバムが配られる3月・4月は特に被害が増えるということで、コミュニケーションアプリには『#卒アル晒し』というハッシュタグまで存在しているということです。性的ディープフェイクを簡単に作れるサービスがありまして、アプリ上にはそのリンクがたくさん貼られています。写真をアップして作成ボタンを押すとものの30秒かからずに画像ができてしまうということで、こういった環境が“被害者も加害者も子ども”という状況に拍車をかけているんですね。


吉田:ちなみに、海外でも性的ディープフェイクの被害は出ているんでしょうか?


神庭さん:アメリカの私立学校では一昨年、2人の男子生徒が女子生徒ら60人分のディープフェイクを作る事件が起きました。また別の事件で、変わったところでは、生成AIの悪用により“40代の成人女性が児童ポルノの被害者になる”という事件も起きています。どういうことかというとですね、FBIによれば、ある小児精神科医の男が、20年以上前の、服を着た未成年者の写真をAIで加工して児童ポルノに変換していた。40代の女性は、15歳の新学期の初日にバスを待っている時の写真を悪用されてしまったと。女性は「大切な記憶を奪い、新たな記憶へと変えてしまった。それは私に吐き気と恐怖、そして圧倒的な不快感と不信感を引き起こすものだ」と述べているんですね。


ユージ:どんどんエスカレートしてしまう気がするんですけど、どうやって防げばいいんでしょうか?


神庭さん:韓国では性的ディープフェイクを作成したら7年以上の懲役。所持したり、見たりするだけでも罰せられるということで、さすがに見ただけで摘発というのは冤罪などの温床にもなってしまうので、少しやりすぎだと思いますけど、それだけ危機感があるのかなと思います。日本では鳥取県が独自に条例を定めていますけど、全国的な法律はありません。現行法での機動的な取り締まりが難しい場合には、法改正も検討すべきではないかなと思います。少なくとも、AI生成の画像にはウォーターマーク(電子透かし)を入れることを義務付けた方がいいのではないかと思いますし、子どもたちを被害者にも加害者にもしないためにAIリテラシー教育も重要ではないかなと思いますね。

  • X
  • Facebook
  • LINE
Top