2020年12月10日-11日,中国人工智能学会在线主办的“人工智能前沿讲习班” (以下简称 CAAI-AIDL)第9期“《认知与知识驱动的自然语言处理》”圆满闭幕。本次活动由哈尔滨工业大学(深圳)徐睿峰教授和中国科学院自动化研究所刘康研究员担任学术负责人,并邀请到认知科学和自然语言处理领域六位著名学者作为报告人。来自全国各地的老师、学生以及企业工程师在线参加,累计访问次数超122万次。


1620197121696770.jpg


12月10日下午,徐睿峰教授主持开班仪式。首先介绍了CAAI AIDL前沿讲习班的宗旨和历史,并对大家参加网上讲习班表示感谢。然后介绍了本期讲习班着重集中在结合认知科学成果以及融合知识的自然语言处理领域的最新进展。


image.png


讲习班的第一场报告,国家优青、清华大学自动化系长聘副教授刘烨斌做了“三维视觉的过去、现在和未来”的分享。三维视觉是实现视觉智能的必然手段,是使用计算机及相关设备对生物视觉模拟的一个重要的研究模块。刘烨斌教授在报告中首先回顾了三维视觉的发展历史并分析了当前二维视觉研究在目标识别、分类、跟踪方面的困境,接下来刘烨斌教授阐释了三维视觉的研究中有望解决这些困境的潜力,并详细地讲解了新一代三维视觉的两个热点研究方向,分别是语义三维表征与语义三维重建。


image.png


讲习班的第二场报告,微软亚洲研究院段楠高级研究员围绕“知识推理”这一话题作报告。此次报告中,段老师系统地介绍了机器推理研究的四种典型方法,包括symbolic reasoning、probabilistic reasoning、neural-symbolic reasoning和neural-evidence reasoning,然后针对每一种方法详细介绍其代表性工作和优缺点,最后段老师简要总结了知识推理领域目前存在的主要问题和改进的方向,并讨论了未来的发展方向。


image.png


12月11日有四场报告,上午和下午各有两场报告。报告进行过程中,讲习班学术主任徐睿峰教授和刘康研究员,汇总了在线听众的问题并邀请讲习班讲者进行了在线回答。


image.png


上午第一场报告,青年长江学者、哈尔滨工业大学车万翔教授作了题为“预训练模型—自然语言处理的新范式”的报告。车万翔教授分析了早期的词向量技术存在的不足。接着介绍了以ELMo为代表的预训练模型和BERT等进一步使用更深层的网络的预训练的模型,此外,车万翔教授还列举了一些对预训练模型进行定性和定量分析的工作,最后讨论了自然语言处理中预训练模型的发展趋势。


image.png


上午第二场报告,国家优青、复旦大学计算机科学技术学院邱锡鹏教授做了题为“自然语言处理中的自注意力模型”的分享。邱锡鹏教授介绍了团队在自注意力模型方面的一些工作。他主要介绍了Transformer的基本原理和优缺点,并提出了改进的模型Star-Transformer等。同时也介绍了Transformer在文本分类、实体名识别等自然语言任务上的应用。最后,邱锡鹏教授对Transformer模型及其未来发展趋势进行了讨论。


image.png


下午第一场报告,清华大学计算机系刘知远副教授分享了“知识指导的自然语言处理”的主题报告。刘知远副教授首先介绍了数据驱动的方法中存在的可解释性不强等难题,然后系统地介绍了知识指导的自然语言处理的代表性工作,并对其最新进展与趋势做了详细的讨论。他着重讨论了在深度学习流行的时代,如何有效地利用人类智慧结晶的知识库提高深度学习方法的性能。


image.png


下午第二场报告,北京大学王选计算机研究所冯岩松副教授作了题为“基于知识的自然语言问答”的报告。报告中,冯岩松副教授先介绍了自然语言问答的发展脉络和基本概念,然后从基础技术框架、复杂问题解析、回复生成等几个方面介绍了今年来知识问答方向的研究进展。最后,冯岩松教授结合目前团队研究工作中存在的挑战与大家分享了未来研究的一些看法。


image.png


在所有报告结束后,徐睿峰教授做了本期讲习班的总结。他表示从本次讲习班讲者多个角度的前沿报告中,可以发现很多研究者已经形成共识,结合人类认知机制启发以及充分利用人类建立的各种知识库,可以在深度学习时代继续推动自然语言处理研究继续发展。最后,徐睿峰教授对中国人工智能学会秘书处的大力支持,报告嘉宾的精彩分享以及参会者的热情参与表示深深感谢。

中国人工智能学会
2020年10月12日


Copyright © 2010 中国人工智能学会 互联网ICP备案:京ICP备06029423号-1
地址: 北京市海淀区西土城路10号 邮编: 100876 技术支持: 010-62283919

二维码