1:名無しさん@おーぷん2ch:2026/01/08(木) 20:16:53.02 ID:6YrJg7Yj0●
Grokが毎時約6700枚の性的画像を生成しているとの指摘、Grok生成画像の85%は性的
X(旧Twitter)上で、AIの「Grok」を使って他人の画像を性的なものに改変する事例が相次いでいます。いくつかの調査で、Grokが前例のないほど大量の性的画像を生成していることが指摘されました。
2025年12月頃から、X上でGrokを使って他人の画像を勝手に編集する行為が相次いでいます。特に画像に写っている人物を性的な様子に改変する行為が目立ち、実質的な性被害が拡大しています。この件は世界中で問題視されており、各国の省庁が調査に乗り出しています。
調査会社のCopyleaksがGrokアカウントのメディア欄を調査したところ、1分間に約1枚の合意のない性的画像が存在することが分かったそうです。
また、Bloombergが「ソーシャルメディアとディープフェイクの研究者」と紹介したGenevieve Oh氏の調査によると、Grokは性的な画像を1時間あたり約6700枚生成したとのこと。Oh氏は「Grokが生成した画像の85%は性的表現を含んでいた」と指摘しています。
被害は若い人物や容姿を売りにした人物だけでなく、公人にまで及んでいます。
なお、多くの国や地域で、他人の画像を勝手に編集したり、性的なものに改変したりして公開する行為は違法とされています。
https://news.livedoor.com/article/detail/30336987/
2:名無しさん@おーぷん2ch:2026/01/08(木) 20:17:34.68 ID:4hkyDS8x0
残り15%は?

