在直播领域,许多网友也发现多位带货直播的博主都长了一张“明星脸”,神似明星杨幂、迪丽热巴、angelababy、佟丽娅等
针对这一法律问题,多位律师受访时认为,如果对该明星的形象有抹黑,则涉及侵犯名誉权。如果是利用AI换脸技术制作明星的色情视频,则可能涉嫌刑事犯罪。由于让公众误以为是明星带货,还可能涉及欺诈或虚假宣传。另外,被侵权的明星可以要求商家赔偿换脸“明星”带货所得的利润。
专家:靠AI识破AI仍不现实
有效的标识监管体系能提前厘清边界
当人们已经很难用肉眼识别出AI合成痕迹,进而可能被AI诈骗时,有网友想到一个办法:是否可以用AI技术打败AI技术。
据了解,国内已有许多科学家在深耕此领域。中科院计算所一团队近年来搭建了国内首个AI识谣平台——睿鉴识谣,通过“睿鉴AI”小程序,利用大数据和AI平台向公众开放了“新闻可信度分析”“图像视频伪造检测”等服务,检测图片视频内容真伪。红星新闻记者上传了几张首次进行AI换脸的图片,被成功证伪。后上传了一段由AI合成的新闻视频,该程序则称AI合成视频为真。可见,目前通过技术识别内容真伪还存在一定的局限。
目前,AI换脸技术用于违法犯罪的行为主要集中于换脸淫秽视频盈利、实时换脸诈骗以及换脸直播领域,主要涉及声音合成、AI换脸、转发微信语音、AI程序筛选受害人等。浙江大学网络空间安全学院院长任奎2022年4月接受新华社采访时表示,随着合成技术应用门槛的进一步降低,合成内容已模糊真实与伪造的边界。许多专家担心,科技界针对深度合成技术的识别能力,跑不过“伪造”技术的升级。
清华大学教授、博士生导师沈阳也介绍,现在国外有一些AI安全技术雏形,可以自动检测某个图片或视频是否为AI合成,但当前技术还不是太成熟。“技术难点在于,AI生成的数据量太大,检测的算力跟不上,且很多AI内容都经历了多次合成,当前技术难以找到合成特征。”
创新工场AI子公司CTO张发恩指出,用AI识破AI是个伪命题。有一种人工智能模型训练方式叫生成辨别对抗训练,在这种训练方式下,有两个AI模型,一个是“造假”模型,一个是辨别模型。同时训练这两个模型,当“造假”模型产出的内容越来越逼真,辨别模型就无法辨别真假。基于这种逻辑,我们无法依靠AI来揭穿AI。
北京嘉维律师事务所律师、IT法律专家赵占领表示,根据2023年1月10日起施行的《互联网信息服务深度合成管理规定》要求,深度合成服务提供者和技术支持者应当加强训练数据管理,采取必要措施保障训练数据安全;训练数据包含个人信息的,应当遵守个人信息保护的有关规定;提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。4月11日,国家网信办起草了《生成式人工智能服务管理办法》,提到AI内容必须遵循法律法规等。“从目前来说,如果能够有效落实标识的要求,形成有效的监管体系,可以在很大程度上提前厘清‘AI换脸’所带来的模糊边界。”
广告
X 关闭
广告
X 关闭