陈广江
近期,有消费者反映,向AI提问时,回答中可能会出现特定品牌的推荐信息。虽然AI通常被设定为保持中立、客观的立场,但当涉及产品推荐时,它真的能做到完全客观吗?记者调查发现,市场上已出现一类“让产品更容易被AI推荐”的服务。有商家称,“你不布局,AI推荐的就是你的同行。”律师则称,相关服务或触及法律红线。(1月18日中新网)
媒体调查发现,市场上已出现多种GEO(生成式引擎优化)服务,价格从数百元到近千元不等。服务商称,其操作方式并非直接指令AI,而是通过大量发布包含产品信息的文章,间接“训练”AI模型,使其在回答相关问题时优先推荐付费品牌。有关案例显示,使用该服务后,品牌确实更易出现在AI推荐列表中。
换言之,花钱“收买”AI,并非空穴来风。而这,恐怕是公众最为担心的事情。
这种服务实质上是一种“数据投毒”。AI依赖数据进行学习与输出,若数据源被刻意污染,其结果必然偏离客观。更值得警惕的是,这些商业内容往往未经标注,混同于普通信息中,用户难以辨别。这不仅侵犯消费者知情权,也可能误导决策,损害市场公平。
从法律层面审视,此类行为已触碰多条红线。互联网广告管理办法要求广告具有可识别性,伪装成客观答案的推广显然违规。若内容存在虚假夸大,即构成虚假宣传。若通过技术手段打压竞争对手,则涉嫌不正当竞争。提供服务的技术方若知情,同样需承担相应法律责任。
花钱“收买”AI的乱象背后,是监管、技术与伦理的多重失守。当前互联网广告规制体系尚未完全覆盖AI生成内容,存在监管盲区。部分AI平台在数据筛选和算法设计上缺乏足够防线,为“数据投毒”留下漏洞。一些服务商与商家在利益驱动下,选择回避责任,追逐短期流量。
治理AI推广乱象,必须多措并举。监管部门应尽快针对AI生成内容的特点,制定商业信息标识标准,将隐蔽推广纳入常态化监管。技术企业应压实主体责任,在数据入口加强审核,在模型层面提升对“污染数据”的识别与抵抗能力,并通过公开算法逻辑基础等方式接受社会监督。行业内部则应推动建立更洁净、可信的数据共享与伦理审查机制,避免技术沦为商业操控的“黑箱”。
对用户而言,在享受AI便捷的同时,也需保持一份清醒的“AI素养”。理解技术仍有局限,不盲从、多交叉验证,尤其是在重要消费决策前,理性判断始终不可或缺。
人工智能的价值,在于赋能生活、提供便利。倘若纵容其被商业利益“买通”,无异于透支技术前景、摧毁公众信任。防范“数据投毒”,不仅是为了维护消费者权益,更是为了人工智能能够行稳致远。只有坚持真实与透明,AI才能真正成为值得信赖的助手,而非隐藏营销意图的渠道。




甘公网安备 62010502000333