Google LLC希望使机器学习模型更加透明,以防止决策方面的偏见。
偏差是人工智能中的一个大问题,而机器学习是人工智能的一个子集。它是AI应用程序黑盒性质的副产品,这些应用程序并不总是揭示其决策背后的逻辑。
偏差可以引入训练数据和机器学习逻辑中,而消除这种偏差可能是一项艰巨的数据科学练习。因此,在做出重要决策时,许多企业仍然不愿意信任AI。
谷歌首席执行官桑德尔·皮蔡说, 今天在开发商公司的年度I / O大会的透明度问题的公司,因为它的许多技术,如谷歌的助理,越来越依赖于AI执行任务。
为此,该公司正在寻求一种新的研究方法,即使用概念激活向量(TCAV)进行测试,将其描述为一种“可解释性方法”,以帮助理解神经网络用来做出决定的信号。
TCAV所做的是尝试剖析机器学习模型,以尝试理解它们为什么做出某些决定。例如,皮查伊说:“ TCAV可以揭示是否训练有素的模型错误地认为男性是医生的重要特征,因为训练数据中发现的男性医生的图像更多。”
Pichai说,TCAV可能会出现其他可能导致偏见的问题,例如种族,收入和位置。
Google正在将TCAV开源,以便其他人可以使用该技术使他们的机器学习模型更加透明,并将“很快”发布更多工具和开放数据集。
Constellation Research Inc.首席分析师兼副总裁Holger Mueller对TCAV的开源表示欢迎。他表示,尽管AI是未来企业软件的基本推动者,但对其确切功能仍然存在担忧。穆勒说,对于神经网络尤其如此,因为神经网络的发展已经超出了解释为什么做出决定的范围。
Mueller说:“这使企业面临潜在的责任问题和整体不良业务,因此,对于AI供应商而言,找到减轻这种风险的方法至关重要。” “今天轮到谷歌使用TCAV作为降低AI操作风险的有效方法。”
并非只有Google会努力提高机器学习的透明度。最近,IBM Corp.宣布了其AI OpenScale平台,该平台记录了每个预测,模型版本和所有培训数据,以帮助组织通过简单的英语解释来理解AI应用程序如何做出决策。