导读 人工智能可以帮助科学家做出发现,但不是每个人都能理解它是如何得出结论的。一位UMaine计算机科学家正在开发一种深度神经网络,以用户可以
人工智能可以帮助科学家做出发现,但不是每个人都能理解它是如何得出结论的。一位UMaine计算机科学家正在开发一种深度神经网络,以用户可以理解的方式解释其发现,并将其工作应用于生物学、医学和其他领域。
可解释的机器学习或人工智能定义了陈的研究重点。计算机科学助理教授说,可解释的机器学习还使人工智能能够将图像与数据预测进行比较,并详细解释其推理。
科学家可以将可解释的机器学习应用到各种应用中,从用图像识别鸟类进行野生动物调查到分析乳房x光片。
“我想增强深度学习的透明度,希望深度神经网络能够解释为什么某个事物是它所认为的那样,”陈说。“很多人已经开始意识到,深层神经网络就像一个黑箱,人们需要开始寻找打开黑箱的方法。”
陈在杜克大学学习期间开始开发可解释的机器学习技术,并于5月获得计算机科学博士学位。
在加入UMaine之前,陈和他在杜克大学的研究同事开发了一个名为ProtoPNet的机器学习架构,该架构可以在控制片中对鸟类进行精确定位和分类,然后解释他们的发现。该团队去年完成的ProtoPNet将解释为什么它识别的鸟是一种鸟,以及为什么它代表一种特定类型的鸟。
研究人员训练ProtoPNet来确定照片中的鸟是什么种类。例如,AI将学习一组代表每只鸟的原型特征,并将鸟图像的不同部分与来自各种鸟的原型特征进行比较。例如,ProtoPNet会将图像中的鸟类头部与来自各种鸟类类别的原型鸟类头部进行比较。陈说,ProtoPNet可以利用与鸟类原型特征的相似性来解释为什么图像是一种特殊的鸟类。
该小组在去年于加拿大温哥华举行的第33届神经信息处理系统会议上发表的一篇论文中分享了他们的发现。