女子地铁内"裸照"被疯传?网友:科技不该用在这上面
(资料图片仅供参考)
3月28日
#女子地铁照被AI一键脱衣传播#
冲上热搜
据报道,近日,广东广州一女子在地铁上的照片被AI一键脱衣,造谣图在网络广泛传播引发关注。
事实上,照片的女主角是小红书的一名博主,而所谓的"裸照"则是她去年7月在平台分享的一张照片。原图中她衣着正常,完全没有任何不妥之处,但却被有心之人用AI软件一键脱衣,故意全网散播。
目前博主已在评论区回复各位网友,称会进行相关的维权处理。
在这则图文分享的评论区
已经有众多网友评论提醒博主,
催促其尽快报警,
也有人热心地帮助其辟谣澄清。
AI换脸换装,或涉嫌刑事犯罪
近年来,"AI换脸"走红网络,一些"AI换脸"的App使用明星的图片制作换脸视频进行推广,其趣味性背后暗藏不少法律风险和侵权纠纷。
明星刘昊然就曾在2021年8月26日发博打假,控诉网上流传的某淫秽视频为AI换脸技术伪造,并向警方报案。
此前一网红特效合成师利用电脑后期制作,合成与某知名女星亲吻的影片在网上传播,这很容易让人认为AI合成的内容就是真实发生的,从而产生很严重的风险和侵害。
专家表示,在《网络安全法》第二十七条的规定当中,特别强调,明知他人实施危害网络安全活动的,不能够为他提供技术支持,如果情节严重,还会构成帮助信息网络犯罪活动罪等刑事犯罪。
今年1月10日开始施行的《互联网信息服务深度合成管理规定》中也提出,要对深度合成技术应用提出规范。
来源:中国青年报、新闻晨报、泾渭视频、央视网、网友评论