女子地铁内“裸照”被疯传?网友:科技不该用在这上面
2023/3/29 20:08:11 医学之声
点击上方“医学之声”,关注后了解更多精彩内容!

来源:中国青年报

3月28日#女子地铁照被AI一键脱衣传播#
冲上热搜

据报道,近日,广东广州一女子在地铁上的照片被AI一键脱衣,造谣图在网络广泛传播引发关注。
事实上,照片的女主角是小红书的一名博主,而所谓的“裸照”则是她去年7月在平台分享的一张照片。原图中她衣着正常,完全没有任何不妥之处,但却被有心之人用AI软件一键脱衣,故意全网散播。
目前博主已在评论区回复各位网友,称会进行相关的维权处理。

在这则图文分享的评论区
已经有众多网友评论提醒博主,
催促其尽快报警,
也有人热心地帮助其辟谣澄清。



AI换脸换装,或涉嫌刑事犯罪
近年来,“AI换脸”走红网络,一些“AI换脸”的App使用明星的图片制作换脸视频进行推广,其趣味性背后暗藏不少法律风险和侵权纠纷。明星刘昊然就曾在2021年8月26日发博打假,控诉网上流传的某淫秽视频为AI换脸技术伪造,并向警方报案。
此前一网红特效合成师利用电脑后期制作,合成与某知名女星亲吻的影片在网上传播,这很容易让人认为AI合成的内容就是真实发生的,从而产生很严重的风险和侵害。专家表示,在《网络安全法》第二十七条的规定当中,特别强调,明知他人实施危害网络安全活动的,不能够为他提供技术支持,如果情节严重,还会构成帮助信息网络犯罪活动罪等刑事犯罪。今年1月10日开始施行的《互联网信息服务深度合成管理规定》中也提出,要对深度合成技术应用提出规范。

END
医学之声出品 未经授权禁止转载
/相关阅读/
·长期没有夫妻生活,会有什么后果?细数房事中的8个不靠谱的谣言
/推荐阅读/
·这样教你看心电图,没有理由看不懂 !

源网页 http://weixin.100md.com
返回 医学之声 返回首页 返回百拇医药