人工智能在客户/供应商尽职调查和筛选中的应用方式需要对这些流程的负责人透明。 除此之外,可解释性还包括确定需要向不同利益相关者(包括公众、客户、监管机构和审计师)说明人工智能的使用方式。这是一个庞大而微妙的领域,在为不同用例实施人工智能技术之前需要考虑。例如,如何使用机器学习进行更智能的筛选以减少误报与如何使用法学硕士进行尽职调查是两个截然不同的事情。 Carrie Chai再次表示:“我们需要考虑应该向谁解释什么,然后我们才能决定如何应用人工智能。
你可能需要向公众、客户、监管机构等解释你的合规方法。域,我们是否希望达到同样的透明度?可能不是。 我们是否想打开盒子,让罪犯看到里面的情况?我们是否想让其他金融机构了解我们的模型?我们需要一种基于风险的方法来采用人工智能,治理没有一刀切的方法。我们需要考虑目的和结果rcs 数据白俄罗斯,然后再采用。” 数据质量——先有鸡还是先有蛋? 在合规和风险管理中使用 AI 时,数据可能是解决问题的最大因素。
遗留系统和分散的数据会严重阻碍 AI 的采用。但组织不能简单地放弃现有数据。Franny Engle建议,组织可以“……重新思考如何组织和管理数据,以便利用 AI 解决方案。我们有机会规划出今天的一切工作方式,并决定这是否仍然是未来的运作方式。” 人们普遍认为,确保数据质量、一致性和组织正确是组织采用 AI 的先决条件。然而,在我们的 AI 研究中,我们采访了 550 名参与者,其中 67% 的人将他们的内部数据评为“不一致”或“碎片化”。