您当前的位置:首页 > 文章摘抄 > 正文

什么是可信人工智能?

可信人工智能

AI是具有颠覆性的技术,其改变世界的潜力是无限的。AI可以改善复杂的决策制订流程,这使其成为了各个行业转型的催化剂。除了可以更有效、更高效地完成繁重且费时的任务外,AI还可以赋予管理团队前所未有的深刻洞察。但与此同时,AI技术也会催生一系列道德、法律和技术风险,需要企业妥善处理。

33%的受访者认为员工信任是AI实施的最大障碍之一,即使受访者完全或一定程度上信任AI。除此之外,我们发现,技术、风险、人员能力和意识等都成为了人们信任AI实施的主要限制因素,尤其在技术方面,技术的可靠性和性能、技术的安全性和坚固性、技术治理与监督、AI应用相关的伦理道德问题都成为了关键因素。

现有的外部监管机构对AI的控制力度远远跟不上AI技术的发展速度。企业在没有强有力的治理下使用AI,会面临严重的风险。这些风险和威胁不仅复杂,还会随着AI技术的发展不断演变。为了确保AI的使用安全,我们提倡在最初的AI设计中就将信任原则嵌入。面对不断演变的威胁,越早将信任原则嵌入AI中,越能未雨绸缪,在确保AI隐私和安全的前提下收获最大的回报,使AI技术成为推动企业未来发展的强大动力。

对企业来说,AI既是管理风险的工具,也是产生新风险的来源,需要妥善管理。这些风险不仅会损害对这些系统的信任,还会损害对产品、品誉的信任。因此无论何时采用AI技术,企业都应该识别各项AI技术应用的风险。

安永的可信的人工智能框架,帮助企业了解新的和不断扩大的风险,企业可以根据他们在AI产业链中的角色和职责开展治理活动。安永的可信AI框架从性能、无偏、透明、韧性、可解释五个方面强调了维持信任所必备的属性。

要被用户接受,AI必须是可以被理解的,这意味着AI的决策框架需要可解释和验证。它还必须按预期运行,无偏见以及安全。

性能是指,AI的结果与利益相关者的期望一致,且其性能达到期望的精确度和一致性水平。

无偏是指,通过AI设计识别并解决由开发团队组成、数据和训练方法产生的固有偏见。AI系统的设计考虑所有受影响的利益相关者的需求,并对社会产生积极影响。

透明是指,给予与AI交互的最终用户适当的通知,以及选择交互程度的机会。根据采集和使用数据的要求,获取用户同意。

韧性是指,AI系统组件和算法本身使用的数据受到安全防护,避免未经授权的访问、损坏和/或对抗性攻击。

可解释是指,AI的训练方法和决策标准可以被理解和记录,并且可供人类操作者随时挑战和验证。

实际上,AI不是被实施,而是被应用,并且当AI应用在三步创新法中时,将可实现可信AI。所谓“三步创新法”为:有目的的设计、谨慎监督和敏捷治理。

有目的的设计是指,在设计和构建系统时有目的地整合并适当平衡自动的、智能的和自主的能力,以促进明确的定义业务目标的发展,并考虑环境、约束、准备程度和风险等。

谨慎监督是指,持续调整优化、关注和监控系统,以提高性能的可靠性,降低识别和纠正偏差,加强透明度和包容性。

敏捷治理是指,跟踪社会、监管、声誉和伦理领域暴露的问题,并报告给以下内容的流程负责人:系统完整性、系统使用、架构和内嵌组件、数据采购和管理、模型训练、监控。


声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,谢谢。

上一篇: 互联网法律的作用?

下一篇: 企业如何推动科技创新?



推荐阅读