#拡散希望>>>>
もし、あなたの卒業アルバムが裸にされたら | NHK

何気なくSNSに上げた思い出の写真や卒業アルバムが、AI技術の悪用で裸の画像に加工され、ばらまかれていた。 いま、そんな事例が世界各地で明らかになり、社会を揺るがせています。 日本でも、水面下で広がり続けている実態がわかってきました。 (ロサンゼルス支局 佐伯敏、ソウル支局 山下涼太、機動展開プロジェクト 柳澤あゆみ) 目次

www3.nhk.or.jp/news/html/20240914/k10014580201000.html

コメント一覧
鷲見 彩葉2024-10-16 09:41:48

こういう画像を作れるから規制ってロジックなら画像編集ソフトも規制対象でしょう。昔からアイコラはあった訳だし。

青島 結愛2024-10-16 09:44:51

AIとかで話複雑にするまでもなく、日本の場合かつてのアイコラ裁判の前例で、作成公表した人間もしくはそこのサイトやプラットフォームに賠償責任(先の例では出版社に約500万円)負わせられるのではないかな。

水戸 光莉2024-10-16 09:47:54

自分が学生の時にこんなソフトがあったら絶対に使っていただろうから、モラルによる制限は期待できないとは思っている。ネットランナーとかで「悪用禁止」とうたって特集されるタイプ

真崎 彩葉2024-10-16 09:50:57

使用ツールに関係なく,名誉棄損,著作権・肖像権の侵害,わいせつ物の頒布などに関する規制が働くのでは。

蛯名 律2024-10-16 09:54:00

ツールや技術の問題ではないとは言うけれど手軽にできるようになったからこそモラルのない人も使う可能性が高まったわけなので無関係ではないよな。とはいえツールを単純に規制しろとは思わないのだが…難しい。

神 陽翔2024-10-16 09:57:03

一年前から、大勢がやられていることは確認できているから、法規制しないとダメだと大勢が言ってたが「反AIが」とまともに取り合わなかった結果。法規制すべき。/銃規制以上にツールが悪意を簡便化している。

寺谷 蒼人2024-10-16 10:00:06

既存法(名誉毀損等)では不十分な理由はなんだろう? どちらかというと立法よりも運用の問題なのでは。

丸岡 瑛太2024-10-16 10:03:09

昔からエロ本と顔写真繋げたりしてたし、単純に拡散がNGってだけの話でしょ?馬鹿が居るから発生する事案なのでネット免許制にすりゃいいよ(笑/作成自体NG派が居たので、国民全ての思想及び行動の全ログ取れば良い(笑)

柏 光莉2024-10-16 10:06:12

フェイク・ポルノのみ規制すれば良い派は既に被害が出てるんだから即座にその限定属性を出力規制するか、確実な真贋判定と拡散防止する策を出してくれよ。それが現状無理だから暫定的にはAI出力自体規制が必要て話よ

丸岡 瑛太2024-10-16 10:09:15

AI肯定派だけど、昔から出来たものでもAIによって簡単に出来てしまうなら当然議論の対象になる。それこそAIに限らず他のことでも同じ

金野 瑛太2024-10-16 10:12:18

こういうデータを生成したのって作ったのも撒いたのもすぐにわかると思うんだけどね

廣川 律2024-10-16 10:15:21

SNS運営に削除要請即時対応を義務付け人権守らないサービスを国内から締め出すか、未成年のAIサービス利用規制するかの2択なら、どっち選ぶべきかな?

小岩 結2024-10-16 10:18:24

ヌード写真を捏造すること自体が問題なのか、本物の写真と見紛うほどよく出来ている捏造写真を簡単に作れることが問題なのか。出来が悪く手間がかかるなら問題にするほどではないのか。問題を整理する必要がある。

西森 咲希2024-10-16 10:21:27

AIなくてもできることをAIだけは対策しろって言っても無理だろう。卒業アルバムの廃止が手っ取り早くない?個人がスマホ持つ時代だし全員のアルバムってもういらない気がする。

宮寺 律2024-10-16 10:24:30

“以前は画像の加工技術のある人が有料で加工の「代行」を行うというSNSの投稿が目立っていました。最近は、無料で加工ができるサービスを提供しているサイトなどへ誘導する投稿が目立つようになっている”

金野 瑛太2024-10-16 10:27:33

AIを推進するのはこういう負の側面への対策をなんとかしてからにしてくださいよ…昔からアイコラがあるし!とか言い訳にならんわ。

宇高 七海2024-10-16 10:30:36

性的なディープフェイクだけでなく政治的なものも大きな問題。ディープフェイク画像は画像中にそう明記して投稿しなければならないなど規制が必要だろう。

蛍原 咲希2024-10-16 10:33:39

これフォトショと違うのは「自分で作った」感がないことなのでは?作ったのはAIだし…ってね。罪の意識が低いから公開しちゃうってのもありそう。

南部 咲希2024-10-16 10:36:42

犯人に対して二度と立ち上がれない程の慰謝料請求を提訴すれば良いだけの話だ。

水落 櫂2024-10-16 10:39:45

事あるごとに「それはAIを使わなくてもできる」論は出るけど、AIを使う場合とそうでない場合の障壁を比較すべき。既存の画像編集では技量を要するが、AIなら容易に痕跡がない画像が作れるならそれはAIが一定程度悪い

宇高 七海2024-10-16 10:42:48

「卒業アルバムを裸にする」とはどういうことか

中根 あかり2024-10-16 10:45:51

AIで同僚いっぱい脱がせてますが、誰にも見せません。

永岡 陽2024-10-16 10:48:54

タイトルからはアルバムの表紙を剥ぎ取る妖怪みたいな

谷名 結2024-10-16 10:51:57

道具が使いやすくなっだために悪意ある人にもリーチしていると言う認識

丹下 柚希2024-10-16 10:55:00

すごく簡単になってしまったのがな

金野 瑛太2024-10-16 10:58:03

他国は法整備が進んできてるのに無規制な日本に悪質なポルノ加害犯が押し寄せそう。自民党政府はノータッチできた。幹部が下着ドロだったりするからね。

海津 彩葉2024-10-16 11:01:06

卒業アルバムが裸にされたらペーパーバックになるのかな。/ この記事のトップの写真はNHKの誰かの卒業アルバムから取ったのだろうか。

柏 光莉2024-10-16 11:04:09

すぐにどこの誰でもどんな動画でも簡単に作れるようになって、フェイクが流れること自体が無意味な社会になるんじゃないかな

谷名 結2024-10-16 11:07:12

これを防ぐために規制すべきは卒業アルバム。思い出を共有したい友人とは自分たちで写真を撮れるようになった今、同じ学校に所属していたという一点で写真と名前を強制的に共有させられる習慣はもうやめるべきだ。

岩畦 一颯2024-10-16 11:10:15

ネットは免許制にして倫理・公序良俗に関するテストに「不合格」になった人間にだけ免許を発行するようにした方がいい。そんなテストに合格するような人間はネットを使ってはいけない。正しく現実を生きろ

齋藤 咲希2024-10-16 11:13:18

AIじゃなくてフォトショで出来るのでもっと前からあるだろ

増子 瑛斗2024-10-16 11:16:21

アイコラ問題の延長線。現行法で対応できるのに、警察のやる気(余裕)が無いだけでは?新しい法律作っても、やる気(余裕)が無いなら意味ないよ。

大杉 心結2024-10-16 11:19:24

日本は自撮りポルノにAIで顔を美人にさせて流す。こっそりな。

水戸 光莉2024-10-16 11:22:27

卒業アルバムとか高いだけでいらないってちょっと前に話題になってたような。子供の人権を守るためにも良い機会だし卒業アルバムとか廃止してみてはどうだろう。

延原 光莉2024-10-16 11:25:30

AI無くても昔からあったよねこれ。ネットで拡散し放題の現在だと考え方も違うけど、以前と比べプライバシーとか写真とかうるさいのに卒業アルバムに全員の顔写真と名前のせるのも考え物では。

蛍原 咲希2024-10-16 11:28:33

自分からは自分が写ってる写真をあげることはないけど他人にあげられる可能性はあるからなあ。

柏 光莉2024-10-16 11:31:36

使われた顔写真がどんどんAIに取り込まれて行くの最悪。取り込まれた顔は知らない間に画像生成に使われることになる。回収もできない。

岡山 結愛2024-10-16 11:34:39

海外でもディープフェイクコミュニティ(reddit等)は潰してたりはしてるのにその時点で猶予があり余裕で肖像権・パブリシティ権と企業規約でも対応できたのに対応しなかった日本が悪い意味で周回遅れなだけや

辰己 結愛2024-10-16 11:37:42

ディープフェイクは相当量の高解像度の写真もしくは動画がないと作成できないので、この見出しはファクトチェックにひっかかると思う。静止画の合成なら昔からあるアイコラと同じでしょ。