第一章
将信任全面嵌入AI
旨在培养信心的原则
将AI风险降至最低的第一步是在管理层以及企业计划部署的AI系统设计者、架构师和开发人员中提高对风险的认识。
然后,企业必须承诺从第一天起就积极地将信任设计到AI系统的各个方面。这种信任应该扩展到AI系统的战略目的、数据收集和管理的完整性、模型训练的治理以及用于监控系统和算法性能的技术的严谨性。
采用一套核心原则来指导与AI相关的设计、决策、投资和未来创新,将有助于企业在这些技术的发展过程中培养必要的自信和自律。
请谨记,无论是企业使用AI的方式还是AI运行后的演进和学习方式,AI都在不断变化。这种持续的创新令人振奋,无疑会产生巨大的新潜能和影响,但传统的治理原则根本不足以应对AI的高风险以及其快速演进的步伐。这些双重挑战需要一种更严谨的方法来管理企业利用AI的方式,以及在当下和未来都能获得最佳结果。
在我们与客户、监管机构和学术界的持续对话中,以及我们开发AI计划早期使用和风险评估的经验中,我们观察到三个核心原则,这些原则有助在建立和保持信任的情况下指导AI创新:
- 针对性设计:设计和构建系统,将机器人、智能和自主能力的适当平衡进行有针对性的整合,推进明确的业务目标,同时考虑环境、约束、准备和风险。
- 敏捷治理: 追踪社会、监管、声誉和伦理领域的新兴问题,为管理系统完整性、使用、架构和嵌入式组件,数据溯源和管理、模型训练和监控的流程提供信息。
- 审慎监督: 不断微调、管理和监控系统,以实现性能可靠性,识别并纠正偏见,提高透明度和包容性。
为什么这些原则特定于AI?因为每个原则中包含的限定词: 针对性、敏捷和审慎。这些特征契合AI的独特性,应对其可能带来的最大挑战。
例如,在以往“只有人类能做到”的领域使用AI正在对传统的设计过程构成挑战。毕竟,AI的意义在于纳入,实际上是模仿人类决策框架,包括关于人类一直应用(和交替使用)的法律、伦理、社会规范和企业价值观的考虑。这些独特的期望要求企业采用针对性更强的设计方法,发挥AI自主性优势,同时降低风险。
同样,随着AI技术和应用的飞速发展,治理必须足够 敏捷,才能顺应其不断扩展的功能和潜在影响。最后,虽然所有创新都需要在监控和监督下蓬勃发展,但所涉及的绝对风险,以及AI持续、动态的“学习”性质(这意味着它在实施后会继续变化),企业需要较以往更加审慎。
以这些指导原则为核心,企业可以有针对性地根据一系列条件或标准评估每个AI项目。根据这些条件(超出了评估传统技术所使用的条件)评估每个AI项目,为考量AI更广泛的场景和潜在影响的过程提供了急需的规程。
评估AI风险:
让我们看一下可用于评估AI计划风险敞口的四个条件:
- 伦理 — AI系统需要遵守伦理和社会规范,包括企业价值观。这包括人类在设计、开发和操作AI时的行为,以及AI作为虚拟代理的行为。与其他任何条件相比,这个条件更是引入了以往非传统技术的主流考虑因素,包括道德行为、尊重、公平、偏见和透明度。
- 社会责任 — AI系统的潜在社会影响应予以认真考虑,包括它对经济、人类身心健康和自然环境的影响。例如,潜在影响可能包括劳动力短缺、技能再培训、歧视和环境影响。
- 问责制和“可解释性” — AI系统应该权责分明。此外,AI操作员应该能够解释AI系统的决策框架及其工作原理。这不仅仅是提高了透明度;这关乎展示对AI系统的清晰把握,包括AI将如何使用和解释数据、它将使用数据做出什么决策、它可能如何演变以及它在不同子组中的决策一致性。这不仅有助于遵守法律、法规和社会规范,还指出了基本保障措施方面的潜在差距。
- 可靠性 — 当然,AI系统应该是可靠的并且按预期执行。这包括测试AI系统的功能和决策框架,以检测意外结果、系统退化或操作转移 — 不仅是在初始训练或建模期间,也贯穿于其持续的“学习”和进化过程。
在开始之前花些时间根据这些标准评估拟议的AI计划可以帮助标记潜在的缺陷,进而在潜在风险出现之前加以缓释。
第二章
全面看待AI风险
了解风险,释放可信AI属性
在满足了 AI 信心的这些条件后,企业现在可以采取更进一步的制衡措施。
为了真正实现和保持对AI的信任,企业必须了解、管理、微调和保护嵌入在AI系统内部和周围的所有组件。这些组件可以包括数据源、传感器、固件、软件、硬件、用户界面、网络以及操作人员和用户。
这种整体观需要更深入地了解整个 AI 链中的特有风险。我们开发了一个框架,帮助企业探索超越AI底层数学和算法的风险,并扩展到嵌入AI的系统。
我们独特的“系统视图”使企业能够建立可信AI生态系统的五个关键属性:
- 透明度:从一开始, 最终用户必须知道并理解他们何时与AI交互。他们必须得到适当的通知,并有机会(a)选择他们的交互级别,以及(b)对捕获和使用的任何数据给予(或拒绝)知情同意。
- “可解释性”: 可解释性的概念在AI领域中的影响力和重要性越来越大。简而言之,这意味着企业应该能够清楚地解释AI系统;也就是说,AI系统不应该超过人类解释其训练和学习方法以及它使用的决策标准的能力。这些标准应记录在案,并随时供操作人员在AI系统继续“学习”时对其进行审阅、质询和验证。
- 偏见: AI中的固有偏见可能是无意的,但它们可能对AI结果和对系统的信任造成严重损害。偏见可能源于开发团队的构成,或数据和训练/学习方法,或设计和实施过程中的其他地方。这些偏见必须通过整个AI设计链进行识别并加以解决。
- 韧性: AI系统组件和算法本身使用的数据必须受到保护,以应对不断变化的未经授权的访问、损坏和攻击等威胁。
- 表现: AI的结果应与利益相关方的预期一致,并以所期望的精准度和一致性水平执行。
那些将AI战略和系统纳入这些指导原则和关键属性中的企业将更有能力在AI投资中取得成功。实现这种可信AI状态不仅需要转变思维方式,转向更有针对性的 AI 设计和治理,还需要制定特定的策略,建立这种信任。
第三章
管理风险和建立信任的领先策略
新兴的AI治理实践
随着AI对业务运营的影响越来越大,董事会需要了解AI技术将如何影响其企业的经营战略、文化、运营模式和所在行业。他们需要考虑其仪表板是如何变化的,以及他们如何评估管理层对AI治理的充分性,包括伦理、社会和功能影响。
为了真正应用可信AI 原则,企业需要出台适当的治理措施。
让我们探索一些我们与客户一起观察到的领先策略,帮助构建可信AI生态系统:
AI伦理委员会 — 一个跨学科的咨询委员会,向董事会报告和/或由董事会管理,可以就AI发展中的伦理考虑事项提供独立指导,同时捕捉纯技术焦点之外的视角。咨询顾问应来自伦理、法律、哲学、隐私、法规和科学领域,就开发团队可能忽略的问题和影响提供多元化的视角和见解。
AI设计标准 — AI发展的设计政策和标准,包括行为准则和设计原则,有助于定义AI治理和问责机制。这些政策和标准还可以让管理层识别出AI实施中什么是可接受的,什么是不可接受的。例如,这些标准可以帮助企业确定是否要开发可能造成人身伤害的自主代理。
AI 清单和影响评估 — 对所有AI算法进行定期盘点,可以揭示在没有适当监督或治理的情况下正在开发的任何孤立AI技术。反过来,应对清单中的每个算法进行评估,标记潜在风险并评估对不同利益相关方造成的影响。
验证工具 — 验证工具和技术可以帮助确保算法按预期执行,并产生准确、公平和公正的结果。这些工具还可以用于追踪算法决策框架的变化,并应随着新的数据科学技术的出现而进一步发展。
意识培训 — 教育高管和AI开发人员了解有关AI的潜在法律和伦理问题,以及他们保护用户权利、自由和利益的责任,是建立对AI信任的重要组成部分。
独立审计 — 由第三方定期进行的独立AI伦理和设计审计对于测试和验证AI系统十分重要。这些审计应用一系列评估框架和测试方法,根据现有的AI和技术政策与标准对系统进行评估。同时,它们还评估整个AI生命周期的治理模型和控制。鉴于AI仍处于起步阶段,这种严格的测试方法对于防止意外结果至关重要。
建立信任,实现充满信心的未来
随着AI及其技术继续以惊人的速度发展和我们为它们找到全新和创新的应用 — 企业从一开始就将信任的原则和属性嵌入到其AI生态系统中,比以往任何时候都更加重要。
那些在伦理设计和治理方面采用领先实践的企业将更有能力降低风险,防范有害结果,最重要的是,保持其利益相关方所寻求的基本信心。借助可信AI的优势,这些企业将能够更好地从这一极其令人振兴奋且充满未知的旅程中获得潜在回报。
领导者应该思考哪些问题?
- 企业如何将AI之旅中的风险降到最低,同时还能让我们充分利用这些令人振奋的新技术的潜能?
- 企业如何使用这些技术来增强人类智慧和释放创新潜能?
- 我们可以采取哪些措施,在信任和问责制的基础上构建我们的AI战略和系统?
结语
AI改变我们世界的潜力是巨大的,但风险也同样巨大、复杂且快速演变的。那些从一开始就将信任原则嵌入到AI的企业更有可能收获最大回报。