财新传媒
公司 > 要闻 > 正文

联想副总裁:AI重在提高可解释性 中国基础研究待加强

2019年09月28日 08:26 来源于 财新网
可以听文章啦!
徐飞玉表示,监管规则对AI研究既是挑战也是机会,联想与美国科研机构合作未受贸易争端负面影响
9月25日,美国旧金山,徐飞玉在人工智能峰会(The AI Summit)上。图/财新记者

  【财新网】(特派旧金山记者 张琪)联想集团副总裁、联想研究院人工智能实验室负责人徐飞玉表示,目前深度神经网络(DNN)的“黑盒子”特性,阻碍了人工智能的落地和商业化。只有人类理解了AI的决策过程,才能将其应用于更广泛的社会场景中。

  徐飞玉在9月25日至26日在旧金山举行的人工智能峰会(The AI Summit)上以“可解释的人工智能:历史、挑战、方法和展望”为题做了主题演讲。

  她表示,目前深度神经网络是不可解释的黑盒子,阻碍了人工智能的落地和商业化。因此,研究可解释的AI非常重要,可提高算法透明性,也有助于事后诠释。它带来的透明系统能够使用户更好地理解一个决策,使技术开发人员更好地了解DNN,有助于数据学习和参数设置,进而改善系统。

责任编辑:李增新 | 版面编辑:张翔宇
推广

财新网主编精选版电邮 样例
财新网新闻版电邮全新升级!财新网主编精心编写,每个工作日定时投递,篇篇重磅,可信可引。
订阅