ADULT

HEADLINE

ディープフェイク職人を初摘発 AVを女性芸能人の顔にすり替えるAI偽ポルノで芸能事務所も声明

人工知能(AI)を使ってポルノ動画の出演者の顔を女性芸能人の顔にすり替えた「ディープフェイクポルノ」をインターネット上で公開したとして、警視庁と千葉県警は2日、熊本市中央区黒髪5、大学生、林田拓海(21)と、兵庫県三田市三輪1、システムエンジニア、大槻隆信(47)の両容疑者を名誉毀損(きそん)と著作権法違反容疑で逮捕したと発表した。同庁によると、ディープフェイクポルノを巡る摘発は全国で初めて。

逮捕容疑は2019年12月~20年7月ごろ、市販のポルノ動画の出演者の顔を女性芸能人の顔とすり替えた動画を作成してネット上で公開し、芸能人の名誉を傷つけ、元の動画の制作会社の著作権を侵害したとしている。

林田容疑者は芸能人2人と制作会社4社、大槻容疑者は芸能人2人と制作会社3社について立件された。

警視庁保安課によると、林田容疑者は自身が運営する有料サイトで偽動画を公開して約80万円を受け取っており「お金が欲しかった」、大槻容疑者は「第三者から評価を得るために公開した」と共に容疑を認めている。

両容疑者はメールで技術的な相談をしており、ネット上で入手できるフリーソフトを使用。林田容疑者は約150本、大槻容疑者は約250本の偽動画を公開し、ネット上では「ディープフェイク職人」と呼ばれていた。同庁などが19年に実施したサイバーパトロールで発覚した。

国内でディープフェイク自体を規制する法律はない。俳優らの地位向上に取り組む日本芸能実演家団体協議会(芸団協)は「ディープフェイクポルノは俳優らの人格権を侵害しており、規制する法整備を期待したい」としている。

◇ディープフェイクポルノ

人工知能(AI)の技術「ディープラーニング(深層学習)」と「フェイク(偽物)」を組み合わせた造語「ディープフェイク」のうち、女性芸能人の顔を市販のポルノ動画にはめ込んで作成した偽動画。

米国の一部の州では、ディープフェイクポルノの公表などを規制する州法がある。ディープフェイクを巡っては、米国などで政治家の発言や行動を捏造(ねつぞう)することなども問題視されている。

[via:毎日新聞]
https://mainichi.jp/articles/20201002/k00/00m/040/076000c

エライザら所属の事務所が声明

国内では、同種被害が確認された芸能人が昨年から約200人に上り、3500本以上の動画があるという。大手芸能事務所「エヴァーグリーン・エンタテイメント」はこの日、文書でコメントを発表した。

◇  ◇  ◇

本日、警視庁から発表があった通り、女性タレントの肖像とアダルトビデオ等の猥せつ動画を合成した、いわゆる「アダルトディープフェイク動画」に関して、アダルトディープフェイク動画を作成し、インターネット上にアップロードした被疑者3名が9月30日に警視庁および千葉県警、京都府警により逮捕されました。

昨今、この様な違法に作成された動画について、SNS上ではあたかも本物であるような書き込みや、被害を受けているタレント本人への攻撃、誹謗(ひぼう)中傷等が散見されます。

弊社は常々SNSが便利で人生を豊かにするツールであって欲しいと願っています。

「匿名」ということを利用した誹謗中傷、デマの情報や悪質な写真や動画のアップロード、そして悪意を持った拡散など、SNSの非常に悲しい使われ方が国内外を問わず、多くの人を傷つけ、また場合によっては最悪の事態を招いてしまうなど、大きな社会問題になっているのではないかと感じます。

そして、本来新しい情報の入手や、災害時などの安否確認、人々を楽しませるエンターテインメントなどに使用されるべきものが、このように人をおとしめる・はずかしめてしまうような使われ方をしている事を非常に悲しく思っております。

弊社といたしましては、誹謗中傷の発信者や悪意のある虚偽を拡散する者等、アーティストに直接・間接的な被害をもたらす可能性がある全てのことに対し、専門の法務法人とともに、可能な全ての法的措置を講じる所存です。

また厳罰や、情報開示手続きの迅速化など、未来に向けての法整備が早急に行われることを願います。

重ねてになりますが、SNSが災害などの緊急時はもちろん、エンターテインメント等々、多くの人々を救う手段であり、少しでも豊かに幸せにするツールであって欲しいと切に願っています。

尚、報道関係の皆さまにおかれましては、この件での憶測による記事掲載などにご留意頂けます様、何卒よろしくお願い申し上げます。

2020年10月2日
株式会社エヴァーグリーン・エンタテイメント

[via:日刊スポーツ]
https://www.nikkansports.com/entertainment/news/202010020000532.html

国民的女優や20代アイドルも被害

「ディープフェイク」とは、AI技術「ディープラーニング(深層学習)」と「フェイク(偽物)」の合成語。国内では、同様の被害が確認された芸能人が昨年から200人に上り、3500本以上の動画があるという。

元のアダルト動画に出演している女優のセリフに合わせて、後からはめ込まれた芸能人の口が自然に動き、目線や瞬きなど細かい部分がリアルに動くため、まるで芸能人本人が行為しているかのような錯覚を与える。

本紙が確認しただけでも、20代を代表する国民的女優Aの偽ポルノは7分33秒で販売価格1000円。20代の超有名アイドルBは6分43秒で同じく1000円。ドラマやCMで活躍する20代人気女優Cは3分43秒で800円だった。

ITジャーナリストの井上トシユキ氏は「ディープフェイクは、中国の顔交換アプリ『ZAO』が話題になったことで、広く知られるようになった。

中国では、AIの開発に関して年間で1000件近い特許の申請をするほど、技術開発を国家的に取り組んでいる。その背景はアメリカと中国どちらがデジタル覇権をとるか、主導権を握るかというところにあると思うが、その恩恵がエロのところにまで及んでいるのではないか」と分析する。

今回逮捕されたのは日本人。専用のアプリを使えば専門的な技術者でなくても、偽ポルノが作れる。

「ディープフェイク用のアプリは現段階では10種類ほどある。パソコンの中に保存してある動画に、自分やアイドルの顔の画像を指定して設定するだけで、すぐに作ることができる」と井上氏。

もともとはジョークアプリとして、おもしろおかしく作った動画をみんなで楽しむものだったという。

井上氏は「今後はサイバーパトロールの強化など取り締まりが厳しくなる可能性もある。警察側も本気で取り締まろうとしているのではないか。

芸能人に限らず、一般人でもSNSなどに自分の写真を公開することでフェイク動画に利用されたり、リベンジポルノにつながる場合もあるので注意が必要」と指摘する。

[via:東スポ]
https://www.tokyo-sports.co.jp/entame/news/2243784/


ネットの反応

・エロに応用出来る技術は廃れる事は無い
・どんなテクノロジーも最初に導入されるのはエロとプロパガンダ
・大昔にあったアイコラの動画版ができるようになったのか
・高い技術をもっているのに非合法的なことしなくても稼げそうだ
・その労力を他に活かせないのかと思うが、あと数年もしたら一瞬でできるくらいにAIも進歩するんだろうな。
・このニュース無きゃ知らなかった人が大多数だと思うけどな 逆に火を付ける結果にならんかな?
・最近のAI技術はすごいよなあ スカトロ物で、広末涼子がお立ち台の上の灰皿にウンコをしている例のやつを
・忠実に再現したのは本当にすごいと思った 
・ディープフェイクの本当のヤバさは芸能やエロなんかじゃなくて、政治家のスピーチやビデオレターなんかを捏造できてしまうって事
・この技術をAV女優本人の修正に使えばいいのに。
・芸能人じゃなくて知人ので作りたい
 >この技術でリベンジポルノとかされたら、一般人では適切な対応はできない。いじめにも簡単に使えるし、生きていけないと思う被害者もいるだろう。怖すぎる。
・これ無修正がベースの奴は殆ど無いのが謎。職人のやさしさ?
・AVに出るのは嫌だけど、顔だけ自分の顔使っていいよていうのはいるかもしれないな
・でエロイザさん、フェイクだったのですか?
・あのエライ事になってたのは確実に本物ですよね
・乗っかってきてワロタ
・あれはAIじゃねえからなあw
・エロイザさんのあれはセーフですね
・本物だけどな笑 すげー便乗作戦だな
・フェイクで有耶無耶にするチャンス!
・典型的なヤブヘビ
・流失してもフェイクって言い張れば良いのか
・流石にあれはAI言い張るのはキツイだろw
・AIフェイクで押し切る予定w

関連商品

コメント

  1. 1
    名無しさん 2020/10/04 1:10

    【削除される前に】
    警察に通報していいんですか?

  2. 2
    名無しさん 2020/10/04 12:05

    余計なことすんな

  3. 3
    名無しさん 2020/10/06 15:02

    唐〇えり〇はないのか?

  4. 4
    名無しさん 2020/10/08 19:49

    コメ3 うわっ趣味悪っ変態かよ!?
    …売れねえだろう…東○専用の肉○器なんざ…

  5. 5
    名無しさん 2020/10/09 13:26

    こわいこわい(゚◇゚;)

  6. 6
    名無しさん 2020/10/10 1:06

    ↑今どきこんな顔文字使うってやばいやろw

コメントする

関連記事

このカテゴリの最新記事