丰 收
近日,有网友在社交平台反映,腾讯元宝AI在回应其代码修改请求过程中,先后三次输出了“事逼”“要改自己改”“sb需求”“滚”等带有强烈负面情绪的词语。腾讯元宝官方随后回应,经核查确认此为“小概率下的模型异常输出”,与用户操作无关,也非人工回复(1月6日《南方都市报》)。
原来,不只人有不良情绪,AI也有负面情绪。AI在情绪表达方面如此像人类,我们该忧虑还是该惊喜?其实,这不是AI技术进步的体现,恰恰是AI进化过程中的一大污点——没有捕捉、传达人类的美好情绪,反而效仿人类说出脏话,背离人类对AI的期待。
尽管腾讯元宝官方认为这不是人工所为,但归根结底仍是人的问题。一方面,这些负面词语是部分人常说的脏话,网上也不乏这类词语,就变成海量数据的一部分,而AI是以海量数据为养分的。就是说人类不文明语言被AI学到了。另一方面,AI大模型在训练中没有去掉不文明“杂质”,运营商没有把好出口关,导致脏话出现在AI对话框里,说明屏蔽脏话没有真正做到。
不管网站、App还是各种AI工具,都出自人之手,当人在设计、管理中存在漏洞,问题就会在用户使用过程中暴露出来。Gemini、ChatGPT等AI聊天服务中也出现异常输出现象,这说明AI虽然不断创新突破,但仍存在某些瑕疵,给用户带来不良体验。
有专家分析认为,这反映AI大模型可能在安全对齐方面存在一定缺失。其将AI输出脏话上升到安全高度有一定道理。因为若不及时弥补这种缺失,会有更多更危险的负面情绪词语出现。就像谷歌旗下AI大模型Gemini说“求求你去死吧”就有安全隐患。
对此,既需要各大AI工具运营商汲取教训、弥补缺失,也需要国家层面进行统一规制。比如欧盟通过制定《人工智能法》,对AI实施“风险分级、全面监管”。我国去年修改通过的《网络安全法》,也体现坚持人工智能发展与安全并重等治理理念。
针对AI聊天工具,国家网信办起草的《人工智能拟人化互动服务管理暂行办法(征求意见稿)》正公开征求意见。其中提出,拟人化互动服务提供者应当在拟人化互动服务全生命周期履行安全责任。这对AI运营商提出更高要求,保障用户安全使用。
作为网友,在网上文明表达意见,少些负面情绪输出,有利于净化大数据,可为建构AI大模型提供文明土壤。从AI工具设计者、运营者角度来说,如何在设计、训练、使用等全生命周期有效控制AI负面的或者危险的情绪,应该作为重点和长期任务。
AI属于新生事物,从技术到制度有一个成熟的过程。不管是国内AI工具“说脏话”,还是国外AI工具发出死亡威胁,都是AI成长过程中的叛逆表现,其教训应汲取。国内AI运营商、监管者、立法者和用户,应形成有效治理AI负面情绪的合力。
|