【白皮书下载】对话 ATD 主席 Tony,下载 《AI 驱动的企业人才发展:聚焦 AI 力》白皮书
- 2025-04-30
- AI 力
4 月 23 日,UMU 携手全球领先的人才发展协会 ATD,成功举办了一场以“AI 时代人才发展与组织变革”为主题的全球线上直播。此次活动不仅展现了 UMU 在推动 AI 赋能人才发展领域的前沿思考,也为全球企业的 AI 应用落地和组织转型带来了宝贵的战略洞察。
直播中,UMU 创始人,董事长兼总裁李东朔与 ATD CEO Tony Bingham,基于双方联合研究并全球首发的《AI 驱动的企业人才发展:聚焦 AI 力》白皮书,展开深度对话,剖析了 AI 时代组织与人才面临的机遇、深层风险与应对策略。
下载完整版《AI 驱动的企业人才发展:聚焦 AI 力》白皮书
以下为李东朔和 Tony Bingham 的对话精选:
1 警惕 AI 认知偏差,洞察数据背后的风险
核心观点: 员工对 AI 力的自我认知与实际情况存在显著差距,这种认知偏差是组织在 AI 应用中的潜在风险。负责任地使用 AI,需要从理解风险、提升认知开始。
Tony: 虽然白皮书里没有直接显示该数据,但是似乎 85% 的受访者认为自己具备了最基本的 AI 力。坦率说,这一比例对我来说似乎有点高。
东朔: 没错,我也有同感。自我评价的调研数据主要是反映参与者的主观感受,但有时结果可能过于乐观。员工的自我效能感是采纳新技术的基础,这本身是很好的。但如果这种自信并非建立在对新技术 (特别是生成式 AI) 真实、全面的理解之上,那么高评价背后可能隐藏着风险。
Tony: 是的,我担心的是个人可能会对自己的 AI 力过于自信。在 AI 发展的现阶段,需要警惕过度自信。白皮书显示,62% 的人才发展专业人士表示 AI 让员工在岗位上更高效,但只有 36% 的人认为员工理解 AI 的概念和定义。这表明,许多员工在使用 AI,但他们可能并不真正理解其工作原理,更重要的是,他们可能不理解自己使用 AI 所带来的影响。
点击下载完整版《AI 驱动的企业人才发展:聚焦 AI 力》白皮书
这对人才发展专业人士来说是一个机会,不仅要培训如何使用 AI,还要培训 AI 本身是如何运作的。另外,白皮书还提到 44% 的组织没有讨论使用 AI 的风险和回报,这点值得关注。企业最不希望看到员工在不了解后果的情况下,将敏感信息输入公共 AI 引擎。
东朔: 许多组织可能低估了对于组织、对于未来生产力以及对于竞争优势的潜力。个人采纳 AI 与组织采纳 AI 的视角截然不同。个人使用可能偏向效率或娱乐,但组织采纳新技术的最终目的是获取市场竞争优势。
特别是对企业高层以及人力资源专家而言,如果这些关键的干系人没有建立对 AI 的深刻理解,并将其纳入公司战略、人才发展和组织规划中,未来三到五年可能会面临显著风险。过去一两年,我们已目睹众多企业通过采纳 AI 实现了生产力、创造力和人才体验的多重提升。
Tony: 人才发展专业人士肩负着一项关键职责:确保组织能负责任地应用 AI。这意味着需要帮助所有员工理解 AI 的基本概念,并为他们提供必要的培训。
正如东朔所说,AI 在个人与组织层面的应用截然不同。因此,战略性地培养组织层面的“AI 力”显得尤为重要:这种能力不仅关乎对 AI 技术的深入理解,更关键在于提升辨别力,判断何种信息适合输入 AI 模型。尤其是在处理公共 AI 引擎与企业私有 AI 引擎的关系时,组织必须建立清晰的指导原则和治理框架来规范数据的使用。
在这一层面上,UMU 用 AI 赋能组织和人才的实践,切实推动了人才发展领域的进步。这不仅仅关乎技术本身,更关乎技术如何应用,这对整个人才发展领域来说都极具价值。
东朔: 谢谢你,Tony。我越来越感到肩上的责任,要真正利用 AI 来赋能于人,帮助引领一场真正的职场转型。我个人认为,我们应该用 AI 来增强人,而不是取代人,用 AI 帮助组织和个人实现更高的生产力、创造力和工作体验。作为第二步或第三步,我们可以用 AI 来处理事务性场景或重复性任务。但第一步应该始终是关于赋能,而不是取代。对于组织、高管和人才发展专业人士来说,建立正确的心态和清晰的视野,明白如何以促进人才发展的方式利用 AI,是至关重要的。
2 企业的 AI 工具清单与供应商管理
核心观点: 白皮书显示,为了引导员工安全、合规地使用 AI,近 60% 的组织,特别是大型组织,会制定一份经审批的 AI 工具清单,帮助员工明确工作中可以使用,以及禁止使用哪些 AI 工具。然而,这份清单并非一劳永逸,它反映了组织在 AI 采纳、态度演变以及风险管理上的动态平衡。
点击下载完整版《AI 驱动的企业人才发展:聚焦 AI 力》白皮书
东朔: 当我们谈论组织背景下的 AI 工具时,可以关注两个维度:AI 工具的采纳率,以及组织对 AI 工具态度的演变。随着生成式 AI 等前沿技术的引入,组织需要持续重新审视和定义内部认可的 AI 工具范围。
Tony: 我认为对 AI 的积极应用越多,比如 AI 作为得力助手,增强员工能力,甚至在某种程度上扮演“同事”的角色时,组织内部对 AI 的整体接纳度就会越高。
东朔: 是的,而且这份经批准的工具清单也可能随着时间改变。有一个有趣的例子:某 IT 团队在为他们的组织评估 AI 的安全性和保障性。他们的主要问题是:“是否使用生成式 AI 作为这个工具的引擎?” 如果用的是自然语言处理 (NLP) 或更早的 AI 算法,他们会说:“好的,那完全安全。” 但如果涉及到任何与生成式 AI 相关的东西,他们的反应就是:“哦,那可能有危险,需要非常非常谨慎。” 这反映了人们采纳新技术时,希望在安全第一的视角和工具的实用性之间取得平衡。
Tony: 当前市场上 AI 工具种类繁多,其数据安全标准与合规要求也参差不齐。在这种情况下,让员工个人承担选择、评估工具并为潜在风险负责,既不现实,也非理想的做法。因此,决定在工作中使用哪些 AI 工具,应是组织层面的决策。
东朔: 完全正确。但是有些公司选择非常保守,他们采取跟随策略:观望那些相对领先或规模较大的组织怎么做,然后再采取类似的行动。但在那个等待期,员工往往会私下在个人设备上使用 AI 工具,试图提升自己的工作。这就产生了我们所说的“影子 AI”。就像我们以前有“影子 IT”一样,现在我们有了“影子 AI”。
我相信,随着 AI 采纳成熟度的提高,经批准的 AI 工具数量将迅速增长。从 IT 或数字化转型的角度来看,组织可能会制定更多的指标和更多的视角来衡量或评估 AI 工具,特别是在安全性、有效性甚至投资回报率 (ROI) 方面。
Tony: 我相信你在 UMU 也会意识到这一点。AI 工具的合规性这不仅仅是组织和个人的问题,也关乎供应商。当个人用户将他们的数据输入到这些 AI 工具中时,如何确保你提供的工具确实在保护组织的数据?像 OpenAI、微软的 Copilot、谷歌这样的公司,如果他们在这方面出了差错,可能会给自己造成严重损害。
东朔: 这是一个很好的问题。UMU 在全球范围内选择大语言模型供应商时,我们做的第一件事就是审查他们的条款和条件,看他们如何处理数据输入,无论是来自个人用户还是组织用户。第二,看他们有哪些机制来保障数据隐私。仅仅说有保护措施是不够的,需要有真正的保障。
一些大语言模型提供商明确声明,首先,如果你是组织用户或开发者,他们不会重复使用任何来自 API 使用的数据输入。其次,他们保证不会存储数据,包括提示词本身。出于故障排查的目的,可能会有一个缓冲区,但那只是缓冲区,不是长期存储或记忆。这是符合商业规范的一部分。
但是当个人用户在使用大模型时,情况就不同了。首先,大模型供应商很难保证个人用户的数据是否会被重复使用。实际上,他们通常声明个人用户的数据会被重复使用。其次,他们可能声称由大模型服务生成的内容属于大模型供应商,而不是个人用户。
如果让员工个人来决定他们在工作中可以使用或不可以使用哪个模型,不仅仅会有数据泄露、合规问题和隐私风险,还有知识产权 (IP) 保护问题和未预见的后果。例如,你可能不希望将来发现 AI 生成的答案是基于多年前另一位员工泄露的数据。这就是为什么这如此关键。
因此,公司需要系统性地思考如何采纳 AI 大模型基础服务。理想情况下, AI 工具的使用应该基于具有明确条款的 API,或者基于开发者与服务提供商之间、公司与供应商之间的合同。这是保证数据不会被泄露、不会被重复用于训练或长期存储的唯一途径。这一点极其重要。
Tony: 对于 AI 应用潜在风险的担忧,尤其是在数据安全和合规层面,确实需要正视。真正的安全保障不能仅仅依赖于供应商的自我约束。正如东朔提到的,组织层面必须采取切实措施,例如与服务商签订权责清晰、数据处理规范的协议,并部署必要的技术防火墙及数据保护机制。
以 ATD 董事会中的几家医疗保健公司为例,它们身处监管最为严格的行业之一,却依然能够筛选、批准特定的 AI 工具,并支持和鼓励员工在安全框架内使用。这充分说明,只要方法得当,大多数组织也能够做到。关键在于组织内部的协同:技术团队需要与法务、合规等相关部门紧密合作,共同制定、执行有效的 AI 治理策略与流程。
点击下载完整版《AI 驱动的企业人才发展:聚焦 AI 力》白皮书
3 理解“AI 幻觉”,提升 AI 力
核心观点: AI 并非完美,其固有的“幻觉”风险 (即可能生成不实信息) 决定了人工监督是 AI 应用中不可或缺的一环。要有效应对这一挑战并负责任地使用 AI,关键在于系统提升全员的 AI 力,深入理解生成式 AI 的工作原理与能力边界,在实践中始终践行“信任且验证” (Trust and Verify) 的原则。
Tony: 无论组织选择如何实施 AI 工具,人工监督都必不可少。不管 AI 有多好,或者我们对 AI 的输出结果感到多么满意,我们都知道 AI 会产生幻觉,它会“一本正经地胡说八道”,甚至会像人一样为自己的“幻觉”辩护。
东朔: 我听说有一家公司在制定新年战略时,询问大语言模型他们的竞争对手在欧洲市场的表现如何,结果 AI 自信地给出了数据。基于这些数据,他们制定了在欧洲竞争的战略。但那些数据完全是编造的。那是一次彻头彻尾的幻觉,他们无法分辨真假。他们当时还很兴奋,说 “哇,这太棒了,我们现在真的可以用 AI 了!” 但这是极其危险的。
Tony: 这就是为什么 AI 赋能如此重要。人们必须确认 AI 输出的合理性与逻辑性,不能假设其 100% 准确。AI 引擎在技术上是通过预测工作的,它们是预测模型,基于给定的上下文生成最可能出现的下一个内容。而随着模型的发展和学习,这个上下文变化很快。
东朔: 是的,那只是“下一个单词预测” (Next Token Prediction)。大语言模型的输出可能语法完美、措辞流畅,但内容完全错误。这是因为生成式 AI 是一个概率模型,而不是确定性模型。
有时候,如果你写了一个很好的提示词,你会得到一个很好的结果。但有时候,即使提示词不错,你也可能得到一个糟糕的输出。这仅仅是因为概率问题。
就像买彩票,有时你会中奖,有时不会。理解了生成式 AI 的工作原理,掌握了 AI 力,人们才能对基于 AI 的产品形成更现实客观的期望。对于传统软件,你给出标准输入,就能得到标准输出。但现在,生成式 AI 的“答案”是一个概率分布,分布在一系列可能的输出中。
我认为组织应该力争实现 100% 的员工具备 AI 力,理解 AI 是如何工作的,包括它的能力范围和局限性,明白 AI 可能会出错,不会把 AI 当作一个完美无瑕的系统,或者假定它的输出总是正确的。
这就是为什么我很倡导 “信任且验证” (trust and verify) 的理念:相信 AI 可以提供帮助,但要验证结果。这一原则适用于三个层面:一线员工、主管和高管。
对于一线员工来说,信任 AI 意味着用它来提升生产力、创造力和工作质量,但验证输出意味着不能仅仅复制粘贴结果。没有人是因为只会复制粘贴而获得报酬的。如果这就是你工作的全部内容,那么这类岗位本身就蕴含着被技术替代的内在风险。
对于主管来说,信任意味着利用 AI 来提高团队的整体生产力。特别是对于初级团队成员或应届毕业生,AI 可以帮助他们打磨思路,产出更成熟的工作成果。但主管仍然需要验证最终的输出。如果有人提交了一篇包含 AI 输入的长文,主管必须发现任何错误或偏离主题的内容,这是领导的责任。
对于高管来说,信任意味着将 AI 视为推动生产力和竞争优势的一种方式。但同样,他们必须验证 AI 是否被用在了正确的场景和工作职能中。例如,使用 AI 来重写或润色一封邮件是很好的,前提是员工写了初稿,只是需要帮助使其更清晰。但是直接将 AI 生成的报告摘要不加审核地粘贴到团队更新或领导层备忘录中,是存在显著风险的。高管需要确保 AI 的应用方式是支持深思熟虑、有信息支撑的工作,而不是取代它。
在更高的层面上,这一切都与预算决策相关。这关乎验证对技术、自动化、创造力和人才发展的投资是否真的被用在了与组织目标一致的方式上。
4 更高层次的 AI 力:建构式地使用大模型
核心观点: 高层次的 AI 力不仅在于辨别 AI 生成内容的真伪,更在于能以“建构式”思维与 AI 协作和互动,利用 AI 来增强自身的专业能力、提升工作产出的质量与创新性,而不是仅仅将 AI 视为一个简单完成任务、替代重复劳动的工具。
Tony: 随着 AI 的进步,以及人们越来越擅长编写提示词,AI 在获得充足上下文后,能更好地模拟用户的语气与风格。其结果是,辨别 AI 生成内容的难度正日益加大。
东朔: 是的,但我认为更高层次的 AI 力在于,你是否能生成连其他人甚至 AI 本身,都无法检测出是由 AI 创建的内容。对我个人而言,现在已经很难分辨某些图片是不是 AI 生成的了。
与此同时,我们使用 AI 的方式很大程度上决定了互动的质量。例如我之前提到的,让 AI 总结报告然后直接复制粘贴结果给客户或内部团队,这完全是错误的。我称之为“直接使用大模型”。
但还有“间接使用大模型”。比如问 AI,“我应该如何着手这项任务?” 把 AI 当作教练或导师,然后采纳建议,自己去完成工作,再让 AI 审阅,给出反馈或建议来润色最终结果。这就是我所说的建构式地使用 AI。
将 AI 定位为增强和提升人类的工具,而非仅仅是任务的替代者,这与学习与发展 (L&D) 领域的核心理念高度契合:主动运用 AI 来拓展自身潜力、深化专业技能。如果个体满足于仅让 AI 处理那些简单重复、易于自动化的任务,比如机械性地信息处理或流程操作,那么这类工作内容本身就面临着极高的被取代风险。更重要的是,个体也因此失去了利用技术挑战自我、实现能力跃迁的机会。
这就是为什么作为一名人才发展专业人士,我越来越感到一种使命感和责任感。这不仅仅是教人们基本的提示词技巧或如何与 AI 互动,而是要利用我们的专业知识和领域知识来鼓励更深层次的思考,需要帮助人们以建设性的方式采纳 AI。
Tony: 你说到点子上了,东朔。最终的责任承担者是人类,而非 AI。如果我们只是复制粘贴,便削弱了人类运用自身独特能力解决问题、创造价值的核心作用。
东朔: **太对了。我们不希望看到人们变得依赖 AI,在出问题时责怪 AI。我们想要的是相互依存,知道何时使用 AI,何时不使用。这就是我所说的更高层次的 AI 力。
5 AI 力培训:从“选择题”到全员“必修课”
核心观点: 白皮书显示,尽管员工学习 AI 技能意愿强烈 (98 %有兴趣),但组织提供培训的比率很低 (仅 31 %),存在巨大供需鸿沟。AI 力培训应视为组织基础能力建设,成为全员必修项目,且需持续更新。
点击下载完整版《AI 驱动的企业人才发展:聚焦 AI 力》白皮书
东朔: Tony,你对如何发展提示词素养或与 AI 使用相关的技能有什么看法吗?
Tony: 这是个好问题。现实是,无论组织是否制定了相关规定,员工已经在个人生活乃至工作场景中自发地探索和使用 AI 工具。如果组织缺乏引导,未能提供清晰的应用框架(如使用指南、安全策略)和相应的技能培训,那么这无异于将自身的业务运营、数据安全乃至合规性置于潜在的风险之中。
降低风险的一种方法是确保员工真正知道如何使用这些工具。试错是好的,但它需要有基础。没有可以依赖的基础,你就无法进行试错,而提供这个基础是我们的责任。
白皮书显示,只有 31% 的受访者表示他们的组织要求员工接受 AI 培训,98% 的受访者对学习如何在实践中使用 AI 有兴趣,这对人才发展领域来说是一个巨大的机遇。鉴于 AI 的广泛应用已触及组织的各个角落,AI 力的培训应该是人人必修的。其目的具有双重性:一方面是为了充分发掘并利用 AI 带来的效率提升与创新机遇;另一方面,则是为了提升风险防范意识,避免因不当使用(例如无意中泄露敏感数据)而对组织造成损害。
尤其需要强调的是,这种培训绝不能是一次性的。AI 技术正以前所未有的速度迭代发展,因此,组织内部的 AI 知识与技能培训体系也必须随之动态更新,确保持续跟上技术前沿。
点击下载完整版《AI 驱动的企业人才发展:聚焦 AI 力》白皮书
东朔: 非常同意。我认为 AI 力培训不是可选项,应该尽早让全员参与并 100% 认证。就像 30 年前计算机首次被引入工作场所,或者 10 年前移动设备成为日常工作的一部分时一样,使用电脑或者移动设备完成工作已经成为组织运作的基础性设施。我相信 AI 也是如此。关于 AI 力的培训,特别是提示词素养,应当成为必修学习项目,而不是随机学习项目。
6 掌握 RSTCC 框架,提升提示词素养
核心观点: 在 AI 时代,“提问”能力 (提示词工程) 变得空前重要。UMU 基于扎实科学的实证研究提出了 RSTCC 框架,通过结构化提问,引导 AI 产生高质量、专业的输出。
东朔: 现在人人都在关注提示词,有那么多的意见领袖 (KOL)、供应商和服务商在谈论提示词,分享技巧。其中一些是有用的,但另一些则近乎于取巧的方法,实在不应该应用于企业环境。
老实说,这种良莠不齐的内容泛滥正显示了 AI 培训行业的不成熟:缺乏可靠的培训材料、最佳实践,甚至缺乏对什么有效方法的共识。许多组织仍然不确定 AI 赋能的最佳方法是什么,以前围绕传统机器学习或分析型 AI 的知识,并不能完全适用于生成式 AI 或大语言模型。
我个人在过去两年里,研读了 200 多篇学术论文,以便从学术和实证的角度更好地理解组织应该如何采纳 AI,不仅仅是从技术角度,更要从实际效果出发。太多针对一线员工甚至高管的培训项目直接跳到技术解释,比如如何训练模型,这只会让人们感到困惑,那没有帮助。我们需要将讨论转向人才和组织的角度:如何有效地采纳 AI,如何高效地使用它,如何建立自我效能感,以及如何转化 AI 为生产力、创造力和工作体验。
根据我的研究,我们可以借鉴“素养”的历史演变进程。大约 100 年前,“基本素养”意味着能够读写,使用钢笔、铅笔、报纸和信件。然后是“媒介素养”:报纸、杂志、广播和电视。后来,“IT 素养”出现,使用像 Word 和 Excel 这样的工具参与电子工作流。接着是“数字素养”,让人们从纸质工作转向数字化流程,并最终转向移动和基于云的工作流。在那之后,机器学习、深度学习和大数据进入了讨论,引入了诸如标记数据、强化学习和算法等概念。
现在,我们处于大语言模型和生成式 AI 的时代,基本或随意的提示词可以得到不错的回应,这取决于模型的强大程度。但是,精心设计的提示词可以减少或者抑制幻觉、改善输出结构,并引导 AI 产生更高质量的结果。“输入会影响输出”,这就是为什么提示词素养如此关键。
我们开发了一个名为 RSTCC 的框架:角色 (Role)、技能 (Skill)、任务 (Task)、背景 (Context) 和约束 (Constraint)。它简单直观,适合日常使用。当你清晰地定义角色和技能时,你就引导 AI 扮演一个更专注、更高性能的角色。
例如,我经常这样提示 AI :“你是一位妙佑医疗国际的功能医学专家。请审阅这份血液检测结果,并基于功能医学原则提供评估和建议。” 这种框架设定引导 AI 给出关于睡眠、饮食、补充剂和生活方式的建议,而不是仅仅给出通用的结果。与此相比,如果输入“评估这份检测”这样模糊的提示词,你只会得到基本的、表面的答案。
有了正确的结构,你可以得到高度专注、高质量的结果。你不再是随意地提示,比如“帮我重写这封邮件”。你开始精心构建输入,以触发复杂、可靠的输出。我的目标是将学术的、经过同行评审的、基于证据的方法引入组织和学习项目中,这样他们就能充分释放 AI 的潜力,同时保持安全、合规和准确。
Tony: 那做得很好。正如我和你坐在一起,东朔你是这一领域的专家,那么我提问的质量将直接影响你回答的质量。如果我问你一些非常笼统的问题,你可能会给我一个笼统的答案。但如果我问你一些关于大语言模型 (LLM) 的具体问题,你会给我一个非常不同且丰富得多的答案。提示词也是如此。你提问的质量决定了你结果的质量,尤其是在与 AI 合作时。
东朔: 完全正确。这就是为什么人们现在越来越多地讨论如何提出好问题。提问技巧变得越来越重要。AI 似乎无所不能,或者至少能做很多事情,但如果你不能提出正确的问题,你就无法释放它的全部潜力。那样的话, AI 就变得像一个实习生或刚毕业的助理,但不是能帮助你工作的专家或教授。
Tony: 可以预见,未来人才的核心竞争力差异将显著体现在对 AI 工具的应用能力上。懂得如何高效、创造性地运用这些工具的人,无疑将从中获得远超他人的发展优势。
这就像一个修车工,他们知道如何使用所有工具,所以即使使用相同的设备,他们能做的也比我们多得多。我们将开始看到不同 AI 力的个体和组织在绩效上的巨大差异,而这正是人才发展领域需要承担责任和把握机遇的地方。组织越是能够有效地赋能员工,引导他们将 AI 用于能力增强和价值创造 (而非仅仅替代任务),其个体与整体的绩效表现就越能得到实质性的提升。
东朔: 非常同意。大多数公司、组织和个人都会采纳 AI,但他们使用 AI 的质量将决定其未来的竞争优势。
这就像现在每个人都使用电脑或移动设备一样。以手机为例。有些人只是用它们来娱乐。有些人则把它们当作助手。有些人则战略性地使用手机管理精力,在通勤时间处理邮件,以便为深度工作预留大段时间,从而可以从头到尾集中注意力。但也有一些人每天拿起手机 200 次,这把他们的一整天都分割成了碎片化的时间段,因此也不能长时间在心流状态开展工作。这就创造了一种完全不同的生活和工作模式。
AI 也是如此。但对于移动设备,最坏的后果是耗尽电池或浪费时间。而对于 AI,低质量的使用风险更大。你不仅仅是在消耗 token 或时间,你可能因为缺乏 AI 力,走向一个完全错误的方向。
Tony: 是的。专业资质认证的经验常常揭示一个现象:拥有知识固然重要,知识可以通过学习获得,但这只是第一步。真正实现价值、产生差异的关键,在于能否跨越从“知”到“行”的鸿沟,将所学知识有效地应用于实践,以创造有意义的成果。那些能够做到这一点的人,才能最终脱颖而出。
这个道理在今天尤为重要,无论我们讨论的是通用技术还是 AI。仅仅了解一项技术的功能是远远不够的。在 AI 时代,真正能够高效、创造性地运用 AI 工具来解决问题、提升绩效的能力,这正是“AI 力”的核心体现,将成为个体和组织的核心竞争力,是区分优劣的关键所在。
AI 时代已至,构建和提升组织与个人的“AI 力”迫在眉睫。UMU 与 ATD 的这次深度对话,清晰揭示了 AI 驱动人才发展与组织变革的底层逻辑与实战策略。
欢迎免费下载 UMU 和 ATD 联合发布的完整中文版《《AI 驱动的企业人才发展:聚焦 AI 力》白皮书,获取更详尽的洞察与实践指导。