女性の写真を裸にするアプリに批判殺到


開発者が、娯楽目的でAIを使って女性の写真を裸にできるアプリを公開したことで批判が殺到。炎上騒ぎへと発展している事例である。


女性の写真を裸にするアプリに批判殺到

問題発生の経緯

人工知能(AI)を利用して女性の写真を裸にできるアプリが、悪用の恐れがあるとしてソーシャルメディア上で多くの批判を浴び、削除された。

このアプリ『DeepNude』は、エストニアに拠点を置くという開発者が公開。開発者は、娯楽目的で数か月前に立ち上げたが、その需要を「大幅に過小評価」していたと述べた。
DeepNudeは、実際の映像を巧みに加工し、不正行為や情報操作に利用される恐れのある「ディープフェイク」の技術を使用したもので、無料版と有料版が提供されていた。

情報拡散の経緯

問題となるアプリが公開される。
ネット上で瞬く間に拡散。
批判コメントが殺到。
炎上騒ぎへと発展。
騒動を受けて、アプリを削除した。

加害者側(炎上させた側)の情報

開発者はアプリについて「拡散し、アクセスを制御できなくなるとは考えもしなかった」「安全措置(ウォーターマーク、透かし)を採用していたが、もし50万人が使用すれば、悪用される可能性は極めて高い。私たちはこうした方法で収入を得たくはない」とTwitterに投稿している。

ネット上の反応

このニュースを読んだ日本のユーザーからは、
「犯罪以外に使い道ないやんけ」
「そもそもなぜ大丈夫と思ったのか」
「そうなるわな」
「今後も似たようなアプリは出てくる」
「その発想・発案そのものが加害性であり暴力的なんだよ」
などといったコメントが多数投稿されている。

結果(その後もしくは現状)

アプリは削除されたが、いくつかのバージョンは使用できる状態で、悪用される恐れがあるとの懸念が上がっている。

参考URL

  • https://news.livedoor.com/article/detail/16695821/