最近因網民以Deepfake(以AI進行深度偽造)技術製造出不雅的照片及影像的問題嚴重,諸多問題浮上枱面。30日晚間,JYP娛樂藉由旗下女團TWICE的官方SNS宣布,公司最近發現TWICE也是受害者,因此正蒐集資料準備採取法律行動。

近日南韓以Deepfake的AI技術將名人照片換臉並偽造製成不雅照片及影片的現象頻傳,其中有超過一半的受害者是南韓女團成員及演員等藝人。

對此,JYP娛樂30日藉由TWICE的官方SNS表示,公司發現旗下藝人的Deepfake影片在網絡傳播,此類行為是明確的違法行為,因此公司目前正在蒐集相關證據資料。

JYP娛樂還表示,公司正藉由律師事務所準備採取強而有力的法律行動,絕對不會從寬處理,而公司不會對侵害旗下藝人權益的行為袖手旁觀,將會以果斷的行動,最大限度的解決此問題。#

------------------

🏵️《九評》20周年👉🏻 https://hk.epochtimes.com/category/專題/退黨大潮

💎成為會員 📧訂閱電子報
https://hk.epochtimes.com/subscribe

🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand