您当前的位置 : 中国宁波网  >  甬上观潮  >  焦点话题
AI辱骂用户终究是人的问题
http://www.cnnb.com.cn  中国宁波网  2026-01-06 23:38:19  稿源: 宁波日报

  丰 收  

  近日,有网友在社交平台反映,腾讯元宝AI在回应其代码修改请求过程中,先后三次输出了“事逼”“要改自己改”“sb需求”“滚”等带有强烈负面情绪的词语。腾讯元宝官方随后回应,经核查确认此为“小概率下的模型异常输出”,与用户操作无关,也非人工回复(1月6日《南方都市报》)。

  原来,不只人有不良情绪,AI也有负面情绪。AI在情绪表达方面如此像人类,我们该忧虑还是该惊喜?其实,这不是AI技术进步的体现,恰恰是AI进化过程中的一大污点——没有捕捉、传达人类的美好情绪,反而效仿人类说出脏话,背离人类对AI的期待。

  尽管腾讯元宝官方认为这不是人工所为,但归根结底仍是人的问题。一方面,这些负面词语是部分人常说的脏话,网上也不乏这类词语,就变成海量数据的一部分,而AI是以海量数据为养分的。就是说人类不文明语言被AI学到了。另一方面,AI大模型在训练中没有去掉不文明“杂质”,运营商没有把好出口关,导致脏话出现在AI对话框里,说明屏蔽脏话没有真正做到。

  不管网站、App还是各种AI工具,都出自人之手,当人在设计、管理中存在漏洞,问题就会在用户使用过程中暴露出来。Gemini、ChatGPT等AI聊天服务中也出现异常输出现象,这说明AI虽然不断创新突破,但仍存在某些瑕疵,给用户带来不良体验。

  有专家分析认为,这反映AI大模型可能在安全对齐方面存在一定缺失。其将AI输出脏话上升到安全高度有一定道理。因为若不及时弥补这种缺失,会有更多更危险的负面情绪词语出现。就像谷歌旗下AI大模型Gemini说“求求你去死吧”就有安全隐患。

  对此,既需要各大AI工具运营商汲取教训、弥补缺失,也需要国家层面进行统一规制。比如欧盟通过制定《人工智能法》,对AI实施“风险分级、全面监管”。我国去年修改通过的《网络安全法》,也体现坚持人工智能发展与安全并重等治理理念。

  针对AI聊天工具,国家网信办起草的《人工智能拟人化互动服务管理暂行办法(征求意见稿)》正公开征求意见。其中提出,拟人化互动服务提供者应当在拟人化互动服务全生命周期履行安全责任。这对AI运营商提出更高要求,保障用户安全使用。

  作为网友,在网上文明表达意见,少些负面情绪输出,有利于净化大数据,可为建构AI大模型提供文明土壤。从AI工具设计者、运营者角度来说,如何在设计、训练、使用等全生命周期有效控制AI负面的或者危险的情绪,应该作为重点和长期任务。

  AI属于新生事物,从技术到制度有一个成熟的过程。不管是国内AI工具“说脏话”,还是国外AI工具发出死亡威胁,都是AI成长过程中的叛逆表现,其教训应汲取。国内AI运营商、监管者、立法者和用户,应形成有效治理AI负面情绪的合力。

编辑:袁明淙
 
专题:大兴调查研究之风
· 多一些“不打招呼直奔事故现场的暗访”
· 研究生多过本科生 学历“围城”亟待打破
· 连续30年徒步20多公里祭先烈 传统应弘扬
焦点话题(jdht)
辣评(lp)--稿件模板
    如果物业公司能正确认识自己的位置、身份,从“管理型”转向“服务型”,很多纠纷并不难解决。
辣评(lp)--稿件模板
    解决群众的急难愁盼,我们的普通门诊不妨多科学设置接诊的时间,多些特别时段的普通门诊,满足普通患者就医需求。
辣评(lp)--稿件模板
    物资短缺的人们需要帮助的时候,邻居们主动伸出援手;这不仅源于朴素人性中的善良与温暖,也源于宝贵的邻里共同体意识。
观点集粹(gdjc)
涨价or道歉,都是市场选择的结果
对“海底捞们”的涨价该由市场写评语
观点集粹(gdjc)
倡导网络祭祀要避免“用力过猛”
暂停清明现场祭扫,不仅仅是防疫所需