问题1:为什么人工智能在信任方面与其他技术不同?
与其他技术不同,AI技术可以自我适应,在使用过程中学习,因此,AI今天做出的决定可能与明天做出的决定不同。重要的是,要持续监控这些变化,验证这些决策是否依然是适当的、高质量的,反映公司的价值观。
例如,当使用历史数据培训AI系统时,可能会引入风险。考虑一下如何将其应用于招聘决策。历史数据是否反映出女性和少数民族面临偏见?即使有治理流程预防错误,这些算法是否仍会重现过去的错误?系统是否能防止不公平,符合法律规定?
安永全球人工智能主管Nigel Duffy表示: "AI可以成为增强人类能力的绝佳工具,但我们必须了解其局限性。从文化和公司价值观来看,AI所能给出的最佳答案可能仍然不是最适当的。”
AI的决策必须符合公司价值观以及道德和社会规范,然而,人类的道德标准基于许多方面:家庭、文化、宗教和群体。另外,开发团队通常由白人或亚裔的男性组成,不能反映出世界的多元化。他们的个人价值观是否能反映我们希望在这种情况下应用的公司价值观呢?
但是,我们还需要问问自己,这些系统是否正在按照我们期望的方式运行。AI的使用正在扩展,但是很少有企业具有成熟的能力监控AI的表现。在许多例子中,企业因自动化决策系统管理不善而破产。自动化系统的失控,可以让企业迅速崩溃。