生成AI画像と犯罪
『画像生成AIで作られたとみられる児童の性的画像が国内サイトに大量に投稿されている問題で、被害者が実在する児童ポルノ対策への支障が出始めている。
AIによる児童の性的画像は児童買春・児童ポルノ禁止法の原則対象外。
ネット上で拡散すれば、そのリアルさゆえに被害児童が実在する画像と区別がつかなくなり、削除要請や捜査などが困難になるという。(桑原卓志)
「これは実在する児童だろうか」。「LINEヤフー」などプラットフォーム事業者らでつくる「セーファーインターネット協会」(東京)の担当者が、戸惑ったのは今年9月のことだ。
同協会は、ネット利用者からの通報などを基に、児童ポルノや違法薬物の売買、詐欺行為などに関する投稿を確認し、サイト運営者などに削除を要請している。警察に通報することもある。
しかし、その時は連絡を受けた画像に不自然な部分があり、複数の担当者で検証する必要に迫られた。結局、AIで作られた可能性が高いと判断し、削除要請しなかったという。
児童ポルノ禁止法は、18歳未満の性的画像を製造・公開し、性的好奇心を満たす目的で所持することを禁じる。だが、児童が実在することが要件で、AI由来のものは原則対象外だ。
わいせつな画像などを取り締まる刑法のわいせつ物頒布罪はAIが作った画像も対象と考えられる。しかし、要件が厳しく、下半身の露出などがないと摘発できない可能性が高い。同罪で取り締まれるAI由来の児童の性的画像はごく一部にとどまるとみられる。
協会の削除要請は児童ポルノ禁止法などに基づいている。中嶋辰弥事務局長は「法の根拠なく、AI画像の削除要請をすれば『表現の自由』の制限につながりかねない。慎重に判断する必要がある」と話す一方、「被害児童が実在する画像の削除要請が遅れれば、ネットにさらされ続けることになる」と危惧する。
サイトに接続できないようにする「ブロッキング」も同様だ。削除要請に応じない海外サイトを想定し、通信事業者に要請するもので、業界団体「インターネットコンテンツセーフティ協会」(東京)事務局の桃沢隼人氏は「『疑わしきはブロッキングせず』にならざるをえない」と話す。
捜査への影響も懸念される。西日本のある警察幹部は「AI画像が大量に出回れば、実際に被害児童がいる画像が埋没してしまい、被害の発覚や摘発が遅れかねない」と危機感を示す。
読売新聞の取材では、複数の国内サイトでAIによるとみられる児童の性的画像が大量に投稿されている。海外からも多数の閲覧がある。
こうした画像は欧米の主要国では法規制の対象となっており、規制の緩い国内サイトには海外の愛好者が集まっている恐れがある。
画像生成AIの最大の特徴は、文章を入力するだけで、精巧な画像が大量に短時間で作れることだ。
関東地方の50代の男性会社員は「1日で1000点以上画像を作ったこともある」と話す。
男性は今年5月頃からネットで知った画像生成AIの無料ツールにのめり込むようになった。児童の性的画像だけでこれまで4000点以上投稿。画像の販売も行い、月数万円の収入があるという。
男性は投稿する際、AIで作ったことを明示している。「仕事の合間に作れ、いい小遣い稼ぎになる」と話す一方、「ネットで転載され、AIで作ったことを隠されたら、実物と区別がつかないかもしれないですね」と悪びれずに言った。
偽画像を見抜く技術も進化 生成AIを巡っては、偽画像も問題となっている。そうした中、AI画像かどうか見抜く技術の研究も進んでいる。
国立情報学研究所(東京)の越前功、山岸順一両教授の研究チームは2021年、人の顔の画像や動画がAIで作られたものかどうかを判定するプログラムを開発した。
大量のAI画像を学習し、人の目ではわからない細かな特徴を検出し、高精度で判定可能という。
越前教授は「対策に取り組む団体やサイト運営者などが活用できる態勢を整えていきたい」と話す。
AI開発企業「ナブラス」(東京)も同様のプログラムを開発。法人や個人が利用できるサービスの提供に向けて、準備を進めている。
しかし、AIの進歩は著しい。原田伸一朗・静岡大教授(情報法)は「AIが進歩するたびに判定技術も対応する必要があり、『いたちごっこ』になる。人権に関わる画像は、『AI生成』と明示したり、第三者が識別できるデータを埋め込んだりするよう義務づける法整備を検討するべきだ」と指摘する。
一方、判別が可能になっても、AI画像が拡散すると本物が埋没し、対策に支障が出る構図は変わらない。
甲斐田万智子・文京学院大教授(子どもの人権)は「AIによる児童の性的画像は、子どもを性的対象にしても構わないという誤った考え方を広める。国際基準に沿って、児童ポルノ禁止法の改正を含め、規制の議論を進めることこそが重要だ」と話した。』
生成AIを使うと簡単に高度な画像が作れるようになった。
その為、画家やイラストレーターの仕事が奪われるなんてことも言われている。
AI技術の発展は素晴らしいが、喜んでばかりはいられない。
そんな職が奪われるかもという話とは別に犯罪を助長する面が指摘されているのだ。
AIで作った児童ポルノの問題が取り上げられている。
児童ポルノは犯罪だが、AIによる児童の性的画像は児童買春・児童ポルノ禁止法の原則対象外となる。
被害者がいないということだろう。
ところが今、AIで生成された児童性的画像の質が高くて、本物かどうか見分けがつかない問題が出てきている。
AIで作成されたものは犯罪ではない。これを取り締まると、今度は「表現の自由」を犯してしまうという議論になる。被害者がいない制作物という感じだろうか。
しかし、この見分けがつかないAIの児童ポルノは、実際に被害者がいる犯罪の児童ポルノの摘発を難しくしている。ネット上でずっと恥ずかしい写真がさらされたまま時間が過ぎていくと、精神まで病んでしまうかもしれない。
そんな犯罪助長をするAI生成ポルノ画像だが、平気で小遣い稼ぎのためにやっている連中もいるようだ。AIで生成した児童性的画像をアップするのは犯罪ではない。著作権がある作品と捉えられる。
それを逆手に取り、AI作成と最初から銘打って販売している連中もいるみたいだね。 そこはその人の良心や道徳観に任せるしかないのかもしれないけど・・・。なんとも複雑だ。簡単に小遣い稼ぎができるとなれば、なかなかやめさせるのは難しいだろう。
まあ、それを買っている客がいるから商売が成り立っているとも言えるので、買う方にも道徳観がないということにもなるけどね。
欧米の主要国では法規制で児童ポルノは厳しく制限されているから、AIかどうかの判断基準でどうこうというのはないみたい。
日本の「表現の自由」がどこまで世界に通じるのかという問題もある。今後も多くの欧米の愛好者が集まるとなると、国際的批判にさらされる可能性もある。
とにかく現行の日本では、児童性的画像がAI生成画像か本物かで犯罪かどうかなど大きく違ってくる。しかし、その差異は素人ではわからないくらいのクオリティだ。
その解決策として、偽画像を見抜く技術を進歩させることだ。 大量のAI画像を学習し、人の目ではわからない細かな特徴を検出し、高精度で判定可能という。
但し、これで問題解決とはならない所が悩ましい。
AI生成画像の方も進化してくれば、そのような偽画像を見抜くコストも上昇する。 今でさえリベンジポルノという言葉があるように、一度ネットにさらされた画像1つでその人のその後の人生を大きく変えるような事が起こっている。
そういう被害者を減らし、救済を優先するという視点に立つなら、AIで作成した画像でも取り締まりの対象としていいかもしれない。
どこまでを「表現の自由」とするのか。
表現の自由とわいせつ物の関係はチャタレイ事件に始まり、最近では「ろくでなし子」の自分の性器をかたどったアート作品などの事件がある。
「表現の自由」を主張する人は、わいせつ文書等の頒布は名誉棄損的表現と異なり、他人の自由や権利に明白な危害を加えるものではないという実質的な害悪が存在しないのに規制をしているのはおかしいというものだろう。
しかし、リベンジポルノや児童ポルノは、被害者に後々の人生に大きなダメージを与える「自由や権利に明白な危害」に当たるものではないだろうか。
結局のところ、法律的観点から児童性的画像はAIで作ったものも犯罪という視点に立たなければ、解決は難しいだろう。
国がわいせつ物を取り締まる理由と共に、考えていくべき問題だと思う。
ネットが発達してグローバル化が進んできている現在、国がどのような立場に立つのか。
世界の中には北朝鮮やロシアのように表現の自由や自由な意見が言えなくなっている国もあるからね。
|