细心点

文字|刘浩宇让“学者”代言护肤品、让“演员”直播卖产品、用奥运冠军的声音卖土鸡蛋……近期,利用面部修改、语音合成等人工智能技术生成虚假内容谋取私利、捏造突发事件、捏造公共政策、捏造影响社会和人民生活的谣言的热点事件层出不穷。人工智能合成的混乱会侵犯当事人的肖像权和表达权,误导公众,侵犯消费者权益,甚至影响社会信任和公共秩序道德。为了维护安全、清晰的网络空间,必须明确界定人工智能技术使用的结果和红线。内容识别是限制内容合成AI中断的第一道“防火墙”。 9月1日起施行的《人工智能合成内容标注管理办法》明确“人工智能生成的合成内容标签”要点,明确相关服务主体的标签责任和义务,规范内容生产、传播各个环节的标签行为。除了为公众提供鉴别真伪的标准外,还逐步培养“标签式标签”意识,并提供后续责任的证据,从而从源头减少恶意行为的机会。虽然系统的设计明确了各方的责任和义务,但实践中仍然存在不法分子利用“镜像翻转”、“图像中遮挡”等技术手段来规避或隐藏自己的信号。我们发现,清理AI合成生态、解决AI造假困境需要多方协作。另一方面,技术服务商和内容发布平台必须严格遵守规则。加强标签监管,加大技术投入,强化内容审核,优化用户权益保护和信息渠道,完善追溯、剔除和问责机制。另一方面,为有效消除侵权假冒滋生土壤,从内容产生到社会公众,均实行严格的源头防范、严格的过程控制、严格的违法处罚。要实现流通的全链条治理,需要不断完善相关法规和实体。技术发展只有保持良好状态才能持续进步。只有始终以规则保障发展,人工智能才能真正成为社会进步的力量。 ■
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(在包括图像和视频(如有)由网易号用户上传和发布,网易号是一个仅提供信息存储服务的社交媒体平台。

此条目发表在吃瓜热门分类目录。将固定链接加入收藏夹。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注