史洪举
国家互联网信息办公室等四部门联合出台的《人工智能生成合成内容标识办法》已于9月1日起正式施行,根据该《办法》,所有AI生成的文字、图片、视频等内容都要“亮明身份”,即对相关内容进行标识。同时要求,任何组织和个人不得恶意删除、篡改、伪造、隐匿本办法规定的生成合成内容标识。目前,腾讯、抖音、快手、B站、DeepSeek等平台均出台了细化规则。(9月1日,澎湃新闻)
根据报道可知,相关平台的落实措施主要体现在三个方面。一是要求内容发布者主动标识AI生成内容,并上线相应辅助标识功能,协助创作者为AI内容添加提示标识,方便用户辨别。二是明确了对于不主动标识AI生成内容的行为的处理办法,如部分平台将对未标记内容采取限流、下架、封号等措施。三是多数平台对未标识的AI生成内容采取了“自动标记”的补漏措施,即对于未标记的AI生成内容,平台识别后,将添加提示标识,提醒公众注意。
应该说,相关平台采取的跟进办法具有非常强的针对性和可操作性,如果能够得以不折不扣地落实,将有效地保护网络用户免遭AI生成内容的误导。众所周知,互联网已经成为大部分人生活、工作、娱乐的必备工具。且很多人通过短视频平台读取新闻,获取资讯,通过阅读网络平台上的文字内容获取知识,获得生活常识。
在网络内容已经成为人们获取资讯和新闻重要渠道的背景下,网络内容的真实性,客观性尤为重要,直接关系到公众的认知能力和学习能力的提升,并关乎公众是否可能学习到错误知识。要是网络平台传播错误内容的话,必然会让受众学习这些错误内容,如果这些错误内容得不到及时纠正,就会导致这些错误内容成为“常识”,长久、大范围地误导公众。
随着AI生成技术的普及,使用人工智能技术生成的文本、图片、音频、视频、虚拟场景等已广泛应用于各个领域。但任何技术和事物均具有双面性,AI技术是把双刃剑,其在降低信息制作和传播门槛的同时有着不可忽视的负面作用,即AI技术极有可能被用于制作虚假消息、制作低俗内容和人脸、声音替换等。这一现状不仅扰乱了网络信息传播秩序,增加公众获取真实信息的成本,更为侵权、诈骗等违法犯罪行为提供了便利。
据报道,目前已经有多起利用AI技术合成人脸、合成声音、编造内容用于传播的事件,导致一些明星等公众人物被冒用人脸和声音后用于推销商品或服务,明星等公众人物遭遇侵权的同时无辜消费者受到欺诈和误导。更有利用AI生成技术盗用人脸和声音用于实施电信网络诈骗的犯罪行为,导致被害人掉入陷阱。
毫不客气地说,对这种足以“以假乱真”的AI技术,如果不采取得力措施来规范,必然会像潘多拉魔盒那样造成难以收拾的后果,并进一步污染网络信息与数据源。强化对AI生成信息进行强制标识,便是较为科学的治理手段。这至少能够让公众知晓所阅读的文字内容,所观看的短视频的来源情况,知晓其系客观的新闻事件还是演绎的剧情,知情权得以保障,不至于掉入误区。
当然,网络平台必须充分发挥技术手段,尽到必要的审核、筛查义务,对不符合标准的内容予以屏蔽、下架,对于恶意编造虚假信息的行为报送有关部门进行调查处理、处罚。这样方可在促进技术发展,提升公众网络红利的同时将AI技术的负面影响降到最低。
|