这些用例主要针对精简耗时任务或简化大型非结构化数据集以支持团队并释放资源。 然而,值得记住的是,正是那些接受人工智能帮助的人需要帮助训练系统,并可能帮助选择在何处和如何部署系统,因为这些人最终将负责决策。电讯盈科集团首席风险官兼集团数据保护官Benedict Cheng表示:“人们谈论他们希望如何采用人工智能,但存在隐性成本的问题,这与您是否拥有合适的人员和数据完整性来训练人工智能有关。
这种培训可以确保您不会引入偏见、造成不透明性和rcs 数据白俄罗斯歧视。确的问题,从而得到值得信赖的结果。” 人工智能和可解释性的重要性 在风险与合规领域使用人工智能技术的想法存在挑战。这些挑战通常集中在信任和偏见、数据质量和隐私以及人工智能解决方案的可解释性问题上。这些都是人们最关心的问题,在更深入和广泛地采用人工智能之前,需要消除他们的担忧。 在我们的人工智能研究2中,约一半(49%)的风险与合规专业人士仍在考虑采用人工智能技术,而超过五分之一(21%)的人表示,他们根本没有考虑将人工智能用于他们的工作。
许多原因都与内部数据质量和隐私以及技能和预算优先事项有关。 然而,创新者和领导者正在思考如何解决这些信任和数据隐私问题。Benedict Cheng:“我们目前采用的方式是开发私人法学硕士学位。如果你的团队中有私人法学硕士学位,你就可以确保数据是安全的——我们仍在创新,但拥有专有数据,这意味着我们可以对数据保密。” 在可解释性方面,组织显然需要了解他们使用的技术背后的逻辑,以及这些逻辑如何影响与合规性和风险管理相关的决策和结果。