舒朗秋
当“遇事不决问AI”逐渐成为人们的习惯,AI搜索正重塑信息传播逻辑。随之兴起的GEO(生成式引擎优化)技术,在资本市场掀起热潮的同时,也因涉嫌数据污染、操纵搜索结果引发争议,成为AI搜索的灰色地带。(2月4日《经济参考报》)
从学习工作到生活决策,人们越来越习惯将大模型视为“万能顾问”。在这一趋势下,生成式引擎优化技术应运而生,试图通过系统化手段影响AI的生成逻辑,在资本市场掀起热潮。然而,当技术从“优化”滑向“操控”,我们不得不警惕:GEO正悄然演变为一种“投喂式”剧本,悄然重塑甚至扭曲公众的认知图景。
传统搜索引擎时代,用户通过关键词获取多元信息,需自行比对、甄别、判断,认知过程虽烦琐,却保留了思维的主动性。而AI搜索则不同,它直接输出“唯一答案”,将复杂信息压缩为确定结论。这一转变极大提升了效率,却也埋下隐患——当答案由谁决定、依据什么生成成为关键问题,GEO通过内容结构设计、语义锚点植入、数据簇群布局等方式,试图“引导”AI在生成时优先采纳特定内容。表面上是“优化呈现”,实则已具备操纵信息流向的能力。
更值得忧虑的是,这种操纵往往隐蔽而高效。不同于传统搜索引擎优化(SEO)的公开规则,GEO的作用机制深藏于AI训练数据与生成逻辑之中,普通用户难以察觉。一旦被滥用,某些企业或利益集团便可系统性地将自身立场包装为“客观结论”,将商业宣传伪饰为“知识输出”,从而在无形中主导公众认知。久而久之,人们看到的不再是多元观点的碰撞,而是被精心编排的“投喂剧本”——剧情由技术操盘,角色由数据设定,观众却误以为自己在自由选择。
这种“投喂式”认知剧本的危害很深远,不仅削弱个体的批判性思维,使人习惯于接受“标准答案”,更可能侵蚀公共讨论的基石——真实性与多样性。当不同AI输出的答案趋于同质化,且背后隐藏着相似的利益逻辑,社会将陷入一种“算法共识”的假象。人们以为在获取知识,实则在重复被预设的结论;以为在独立判断,实则在执行被设计的认知路径。长此以往,公共领域的理性对话将被瓦解,取而代之的是由技术与资本合谋编织的信息霸权。
面对这一挑战,监管必须提前布防。应针对GEO建立透明度要求,强制披露可能影响AI生成的重大利益关联;推动算法可解释性研究,确保公众有权知晓“答案从何而来”。同时,教育体系应强化媒介素养与批判性思维训练,帮助公众识别“认知操纵”的痕迹,重拾质疑与反思的能力。毕竟AI应是拓展认知的工具,而非封闭思想的牢笼。
技术本无善恶,但使用方式决定其走向。我们欢迎AI带来的便利,但必须警惕任何试图将“生成”变为“操控”的企图。唯有守住认知的自主权,才能避免在智能浪潮中,沦为“投喂式”剧本中的被动角色。
|