可解释的人工智能为人工智能在保险行业的使用铺平了道路
信任、保护、安全
在其他服务行业中,客户对保护、信任和安全的需求不像保险公司那样明显。由于风险转移,保单持有人依赖于保险公司在索赔时提供保护的承诺,从而依赖于他的表现,以免最终陷入财务困境。拒绝支付索赔对于许多被保险人来说可能意味着经济损失。某些决策的制定方式、原因和原因的透明度(无论是人类还是人工智能)是保险行业的首要任务。
该保险公司拥有国家和欧盟层面的八个监管机构,是德国监管最严格的公司之一。显然,正是这些监管也影响着进步和新的商业模式。对于人工智能的使用,BaFin明确表示:受监管的模型不接受黑盒应用。决策过程,即人工智能如何得出结果,必须对所有参与者都可以理解和透明地传达。我们需要将黑盒转换为白盒。这正是可解释人工智能 (XAI) 发挥作用的地方。
什么是可解释的人工智能?
可解释的人工智能 (XAI) 是一种有条不紊的方法,可以根据客户 高中教练电子邮件列表 和监管法律的要求实现决策的可追溯性。 XAI解释了人工智能的过去、现在和未来的行为。简而言之,XAI 是关于使用人工智能时的最大透明度。由此产生的决策可追溯性可以显着提高保险行业的可用性,并且通过满足法律要求,代表了人工智能在保险行业使用的里程碑。
从黑盒到白盒?
人工智能领域有两种方法论。经典的方法是黑匣子,其中训练数据被发送到学习过程中。作为一名用户,我从人工智能中得到结果,但我通常无法得到为什么某些问题会以这种方式解决的问题的答案。在可解释的方法中还有一个所谓的抽象层。因此存在一个单独工作的模型,并在另一个层面上提取实际模型的结果。在解释界面的帮助下,用户可以获得做出决定的原因和概率等问题的答案。所以你可以理解并理解为什么AI会以某种方式决定某件事。
用户群体是新的挑战
XAI 中的一个新挑战是由用户组提出的,这些用户组根据其角色对同一模型的解释有不同的要求。经理和高管期望在战略抽象层面上得到答案,并衡量模型的成功率 (KPI)。监管实体对模型的合规性及其法律确定性拥有主张。作为运营实体的领域专家需要信任其日常业务的模型,并从中得出自己的行动。此外,还有狭义的投保人角色的用户,必须在完全不同的抽象层面上理解人工智能的决策。毕竟,作为外行,他们对学习程序和模型一无所知,这意味着这里必须对决策的基础进行不同的解释。这就是要求决策应该公平且值得信赖并且还必须考虑用户隐私的特征发挥作用的地方。最后,还有实际的技术人员,例如数据科学家、产品负责人和软件工程师,他们拥有深厚的技术专业知识并控制转型过程。
对于 XAI,最终需要一种不同的新方法,因为必须更深入、更广泛地处理抽象和解释级别。随着对用户抽象级别(GUI)的关注变得更加重要,数据科学家在专业知识方面的资质也在提高。
的方法
您想了解更多关于 adesso 世界中令人兴奋的话题吗?那么请看一下我们之前发布的博客文章。