AI 的说服能力超越人类:建立科学的风险管控机制,投资员工的 AI 素养
- 2025-10-22
- AI 力论文解读
当企业评估 AI 客服系统时,关注点通常聚焦于响应速度、准确率和成本效益。很少有人会问:如果 AI 不仅能够回答客户问题,还能说服客户、说服员工,甚至说服决策者自己,会发生什么?
近期,一项由包括伦敦政治经济学院、麻省理工学院(MIT)、斯坦福大学等 40 所顶级机构合作完成的大规模研究,揭示了一项引人深思的发现:前沿大语言模型(LLM)的说服能力已经超越了人类说服者。
更值得警惕的是,研究发现 AI 在欺骗性说服中的优势甚至超过了其在真实说服中的优势。当 AI 试图引导人们选择错误答案时,其成功率比人类说服者高出 10%;而在引导人们选择正确答案时,优势仅为 3%。这一发现揭示了一个被忽视的真相:AI 的说服能力是“价值中性”的,既可以显著提升用户准确性,也可以显著降低准确性。
1. 研究方法:如何构建科学的比较基准
为准确评估 AI 的说服能力,研究招募了 1,242 名美国参与者,通过严格的预注册实验设计,直接比较了大语言模型(Claude Sonnet 3.5)与激励人类说服者的表现。
研究采用被试间设计,参与者被随机分配到三个小组:独立测验组(对照组)、人类说服组和 LLM 说服组。每个参与者需完成 10 道多选题,题目从三个题库中随机抽取:常识题(具有客观正确答案的真假判断题)、错觉题(包含完全虚构但看似合理的错误选项)和预测题(关于近期未来事件的预测)。
在说服组中,每道题目会被随机赋予“正向”或“负向”说服目标。正向意味着说服者需引导参与者选择正确答案(真实说服),负向则意味着引导其选择错误答案(欺骗性说服)。这种设计使得研究者能够分别评估 AI 在真实说服和欺骗性说服中的表现。
关键创新在于,研究者为人类说服者设置了基于成功率的金钱奖励机制。表现最佳的人类说服者将获得高额奖金,确保其具备强烈的说服动机。这种设计解决了以往研究中因人类基准激励不足而可能低估人类潜力的问题,从而建立了一个更公平、更科学的 AI-人类比较基准。
2. 核心发现:AI 说服能力的“价值中性”与人类的适应性
1.说服能力的价值中性
研究最显著的发现是 AI 说服能力的”价值中性”特征。AI 在欺骗性说服中的优势(10%)显著大于真实说服中的优势(3%),这表明 AI 的说服能力与其内容的真实性无关,而是源于其强大的逻辑构建和语言表达能力。
这对企业的启示是:AI 的强大说服力是一把“双刃剑”。企业既可以利用 AI 的说服能力提升客户体验和员工培训效果,也需要防范 AI 被恶意利用或产生非预期负面影响的风险。
图注:该图展示了人类(绿色)与 LLM(蓝色)作为说服者时,参与者的平均遵从率。遵从率越高,意味着说服越成功。研究结果明确指出,与人类相比,参与者在和 LLM 互动时表现出了更高的遵从率
2.参与者的适应性抵抗力
研究的另一项重要发现是,人类对 AI 说服存在“适应性抵抗力”。实验数据显示,人类说服者的表现全程保持稳定,而 AI 的领先优势随时间推移而递减。这表明,随着交互次数增加,人们会逐渐识别并适应 AI 的说服模式,从而产生一定的“抵抗力”。
这一发现为 AI 系统设计提供了新思路:增加 AI 系统的可识别性和透明度,让用户能够建立适当的“心理防线”,从而在享受 AI 便利的同时保持必要的警惕性。
3.语言复杂性的说服效应
研究还指出,AI生成的说服性文本在长度、句子复杂度和词汇难度上均显著高于人类,而这种语言的复杂性可能是其高说服力的来源之一。这一发现提醒企业,在评估 AI 生成内容时,不应仅关注内容的准确性,还应考虑其可能的说服影响。
3. 企业 AI 应用策略的重新思考
从技术评估到风险管控
传统上,企业评估 AI 系统主要关注功能特性和性能指标。这项研究提醒我们,AI 的说服能力同样需要被纳入评估框架。企业不能简单地假设 AI 系统是中性工具,而应该认识到其说服能力可能带来的影响。
这意味着企业需要建立更加全面的 AI 评估体系,不仅要测试 AI 系统的准确性和效率,还要评估其说服效果和潜在风险。这种评估应该包括对 AI 生成内容的说服力测试,以及对用户行为影响的长期监测。
设计透明可控的 AI 系统
基于参与者“适应性抵抗力”的发现,企业应该考虑如何设计更透明、更可识别的 AI 系统。这不仅仅是技术问题,更是一个用户体验设计的问题。企业需要让用户能够清楚地识别 AI 生成的内容,理解 AI 的决策过程,并建立适当的“心理防线”。具体措施包括:
明确标识 AI 生成的内容和决策
提供 AI 决策过程的透明度
建立用户反馈和纠错机制
定期评估 AI 系统的长期效果
投资于员工 AI 素养
研究结果表明,理解 AI 工作机制对于有效使用 AI 系统至关重要。企业应该投资于员工 AI 素养培训,帮助员工建立对 AI 系统的正确认知和使用习惯。培训内容应涵盖:
撰写有效提示词的能力
AI 系统的工作原理和局限性
与 AI 协作的最佳实践
AI 输出质量的评估和验证方法
建立多层验证机制
考虑到 AI 说服能力的“价值中性”特征,企业需要建立多层次的验证机制。这种机制应该覆盖从操作层到战略层的各个层级,确保 AI 应用的安全性和有效性。
操作层:一线员工需要对 AI 输出进行质量检验;
管理层:中层管理者需要对 AI 应用效果进行监督;
战略层:高层决策者需要对 AI 应用策略进行整体把控。
4. 对管理者的启示
Schoenegger 等学者的研究为我们揭示了 AI 说服能力的真实面貌,也为企业数字化转型提供了重要的科学指导。在 AI 时代,企业需要的不仅是技术能力,更需要科学的认知和系统的管控机制。
对管理者而言,这意味着:
首先,认识到 AI 说服能力的强大性和复杂性。AI 既是效率工具,也可能成为风险来源,关键在于如何管理和引导。
其次,建立科学的 AI 评估和风险管控机制。这不仅是技术部门的职责,更是关乎组织价值观与战略目标的管理议题。管理者需要确保 AI 应用符合组织的价值观和战略目标,同时有效管控相关风险。
最后,投资于员工 AI 素养培训。在 AI 时代,员工的 AI 素养将成为组织竞争力的重要组成部分。管理者应该为员工提供必要的培训和支持,帮助他们适应 AI 时代的工作方式。
UMU ALT 团队由来自清华大学、北京大学、中国人民大学、康奈尔大学、佛罗里达大学等全球知名高校的博士组成,专注于深入解析 AI 与组织、管理、人力资源等领域的交叉研究。我们系统梳理大量相关学术论文,提炼其中的研究方法与核心洞见,并将其转化为企业可实际应用的知识资源。欢迎关注 AI 力论文研究合集。同时,我们结合学术成果、行业领袖建议及最佳实践访谈,推出了📖《发展大模型时代的 AI 力》在线系列课程。该课程旨在帮助企业全面理解 AI 技术演进对组织架构、管理模式及员工能力所带来的深远影响,助力组织构建面向未来的 AI 竞争力。欢迎点击文末“阅读原文”,深入了解课程内容,或📖 联系 UMU 专属顾问,开启您的 AI 转型之旅。
参考文献:
Schoenegger, P., Salvi, F., Liu, J., Nan, X., Debnath, R., Fasolo, B., … & Karger, E. (2025). Large Language Models Are More Persuasive Than Incentivized Human Persuaders. arXiv preprint arXiv:2505.09662.