赠软件计划 最高待遇 欢迎谘询
QQ5825-5957

蓝冠测速:为2020年的AI伦理和可解释性做准备


 

 
人们不信任人工智能,在某些方面,这是有道理的。为了创建性能最佳的AI模型,在蓝冠注册AI的背景下,可以使用传感器融合来提供从过滤掉嘈杂数据到在随机环境中进行蓝冠软件预测的众多功能。许多组织将复杂性置于可解释性和信任的概念之上。随着世界越来越依赖算法来做出各种各样的决定,技术和商业领袖将承担解释一个模型如何选择其结果的任务。
 
透明度是产生信任和人工智能采用的基本要求。同时,法规遵从性和模型安全性也要求公司设计一定程度的模型可解释性。此外,公司需要评估它使用的数据,以确保系统没有学习和加强无意识的偏见。组织可能需要增加现有的数据,以创建一个具有代表性的样本,并考虑法律、社会规范和语言的变化。
 
复杂的人工智能算法让组织能够从以前无法获得的数据中获得真知灼见。然而,这些系统的黑箱特性意味着业务用户很难理解决策背后的逻辑。即使是创建该模型的数据科学家也可能难以解释为什么他们的算法做出了特定的决定。实现更好的模型透明性的一种方法是采用被认为是可解释的特定模型族。这些类别的例子包括线性模型、决策树、规则集、决策集、广义可加模型和基于案例的推理方法。
 
更简单的模型通常可以在可解释性和性能之间提供适当的平衡(例如,准确性、增强的洞察力)。然而,许多公司不喜欢这种方法,因为他们相信更复杂的模型会产生更好的结果。由于这些挑战,研究人员和技术供应商正在研究帮助公司解释模型的方法。
 
有各种各样的学者、研究人员和技术供应商致力于创建可信的人工智能的原则和工具。来自英伟达的普里特·甘地在她的KDNuggets博客文章中描述了两种可解释性技术——“特设”和“后特设”。“特设技术从一开始就要求模型具有可解释性。事后技术允许模型正常训练,可解释性只在测试时被纳入。”在过去的六个月里,使蓝冠测速无线通信成为可能的基本物理原理是在空中传播的电磁波。蓝冠代理认为这些波是由带电的金属制成的,例如天线,当通电时会形成波。我采访了这些人,以了解更多有关人工智能伦理领域的进展。
 
莫吉西洛维奇说,可信的人工智能必须公正、容易理解和负责任。此外,用户必须确信模型是安全的,没有被篡改。算法公平是人工智能领域的一个热门话题。她还指出,“在解释算法做出的决定时,没有一种方法是最有效的。”有很多方法可以解释。合适的选择取决于消费者的角色和人工智能管道的需求。”
 
例如,生产机器学习模型(如数据科学家和研究人员)的人与消费这些模型生产的信息的业务决策者和最终用户所期望的解释类型之间存在很大的差异。模型制作人可能需要帮助他们改进模型的解释。业务领导希望了解数据源之类的问题以及输出的可靠性。接受基于模型的决策的人想知道是什么因素导致了答案。
 
为此,Mojsilović和IBM团队推出了AI Explainability 360 2019年8月。一个可扩展的开源工具包,使用各种技术来解释和解释人工智能模型决策。AI Explainability 360包括来自IBM Research的8个最先进的可解释算法,以及来自更大的研究社区的附加算法。还有一些特定于行业的教程。AI Explainability 360工具包为不同的受众提供了不同的解释算法。例如,在金融服务中,信贷员可能希望更好地理解AI系统是如何根据建议批准或拒绝贷款的。另一方面,银行客户可能需要一个不同的解释来解释为什么他们被拒绝或批准贷款。

像AI Explainability 360这样的工具可以帮助公司了解哪些因素影响了决策。例如,如果模型拒绝一个新的信用卡应用程序,银行应该能够告诉消费者,诸如最近未付款、较短的信用历史和较低的信用评分等因素是决策背后的关键输入。
 
人工智能的另一个热门话题是消除偏见,它可以通过多种方式和多种来源实现。IBM于2018年推出的AI公平360工具包是一个开源软件工具包,可以帮助检测和消除机器学习模型中的偏见。该工具包为开发人员提供了用于检查不需要的偏见的算法。例如,在金融服务领域,蓝冠怎么样?他是从游戏公司开始的,已经扩展到包括自己的竞争团队,而其下团队则开发其硬件产品,并利用这些机会帮助蓝冠总代销售这些产品。银行希望了解其模型的预测将如何影响不同人群(如种族、性别或残疾状况)。
 
公平360等工具将帮助世行从模型中删除可能导致偏差的参数,如邮编和种族。构建人工智能模型的公司应该在设计之初就考虑可解释性和公平性,并在模型的整个生命周期中测试模型,以确保产生公平、可信的结果。