女子地铁内"裸照"被疯传?网友:科技不该用在这上面


(资料图片仅供参考)

3月28日

#女子地铁照被AI一键脱衣传播#

冲上热搜

据报道,近日,广东广州一女子在地铁上的照片被AI一键脱衣,造谣图在网络广泛传播引发关注。

事实上,照片的女主角是小红书的一名博主,而所谓的"裸照"则是她去年7月在平台分享的一张照片。原图中她衣着正常,完全没有任何不妥之处,但却被有心之人用AI软件一键脱衣,故意全网散播。

目前博主已在评论区回复各位网友,称会进行相关的维权处理。

在这则图文分享的评论区

已经有众多网友评论提醒博主,

催促其尽快报警,

也有人热心地帮助其辟谣澄清。

AI换脸换装,或涉嫌刑事犯罪

近年来,"AI换脸"走红网络,一些"AI换脸"的App使用明星的图片制作换脸视频进行推广,其趣味性背后暗藏不少法律风险和侵权纠纷。

明星刘昊然就曾在2021年8月26日发博打假,控诉网上流传的某淫秽视频为AI换脸技术伪造,并向警方报案。

此前一网红特效合成师利用电脑后期制作,合成与某知名女星亲吻的影片在网上传播,这很容易让人认为AI合成的内容就是真实发生的,从而产生很严重的风险和侵害。

专家表示,在《网络安全法》第二十七条的规定当中,特别强调,明知他人实施危害网络安全活动的,不能够为他提供技术支持,如果情节严重,还会构成帮助信息网络犯罪活动罪等刑事犯罪。

今年1月10日开始施行的《互联网信息服务深度合成管理规定》中也提出,要对深度合成技术应用提出规范。

来源:中国青年报、新闻晨报、泾渭视频、央视网、网友评论

推荐内容