徐 刚
AI大模型也会“骂人”了?据澎湃新闻报道,近日,有网友在社交平台发帖称,使用腾讯元宝AI美化代码时,多次收到AI的侮辱性回复,例如“滚”“自己不会调吗”“天天浪费别人时间”等。腾讯元宝官方账号回应称,“与用户操作无关,属于小概率下的模型异常输出。”
当AI演变为能够与人进行复杂交互的智能体时,其行为的不可预测性已经成为一个无法回避的社会命题。AI开始以人格化、情绪化的语言辱骂用户,这已不只是“输出错误”,而是对人机交互伦理底线的触碰。
我国《生成式人工智能服务管理暂行办法》明确要求,AI服务提供者应采取措施防止生成违法和不良信息,但具体到“情绪化攻击”“隐性侮辱”等灰色地带,尚缺乏清晰界定与监管标准。企业往往以“技术中立”“模型不可控”为由推卸责任。
我们渴望AI越来越“拟人”,却又恐惧其表现出人性的阴暗面。这种矛盾心理恰恰说明,社会尚未准备好接受真正自主的智能体。在确保技术安全、可靠、符合伦理之前,保持必要的审慎而非盲目乐观,或许才是更负责任的态度。
监管部门应进一步细化监管标准,加强对AI产品全生命周期的监督,推动企业落实安全评估和风险分级管理制度。AI服务提供者要从“小概率”中看到“大责任”,将技术安全置于商业利益之前,严格履行主体责任,采取有效措施防范虚假信息、不良信息生成。作为普通用户,也需调整认知,明白AI不是全知全能的魔法,而是有着复杂内在机制和局限性的工具。
|