第十七届中国计算语言学大会举办会前讲习班
发布时间: 2018-10-19 20:02:09 浏览量:
10月19日-21日,由中国中文信息学会主办,清华大学智能技术与系统国家重点实验室组织,长沙理工大学承办的第十七届中国计算语言学大会(CCL 2018)暨第六届基于自然标注大数据的自然语言处理国际学术研讨会(NLP-NABD 2018)在长沙召开。
10月19日,本次大会在会前举办了为期一天的讲习班,围绕Cross-lingual Entity Discovery and Linking、 基于知识的推荐与可解释推荐、机器学习理论和强化学习等专题开展介绍。
微软亚洲研究院研究员介绍“个性化推荐系统的未来”
来自微软亚洲研究院首席研究员谢幸和微软亚洲研究院研究员王希廷就“个性化推荐系统的未来——基于知识的推荐与可解释推荐”的主题进行了详细讲解。他们指出,由于信息的爆炸式增长,推荐系统在互联网服务中扮演着越来越重要的角色,也是学术界和工业界持续的研究热点。与此同时,随着定位技术、传感器和社交网络的高速发展,产生了大量的用户行为数据。这些数据可以全面的反映用户不同维度的特征,大大提高了个性化推荐的性能。
谢幸介绍了个性化推荐系统目前遇到的挑战,例如用户行为数据的异构性和稀疏性、缺乏可解释性等。此外,他还介绍如何借助异构数据、知识图谱以及用户活动规律来提升推荐算法性能。在可解释性方面,王希廷介绍了可解释推荐系统的分类、推荐解释生成方法以及可解释推荐面临的机遇和挑战。
海归博士讲授跨语言实体发现和链接
来自美国伦斯勒理工学院的季姮教授,其研究兴趣集中在自然语言处理,特别是信息提取和知识库,本次讲习班她向到场的老师同学们分享了“跨语言实体发现和链接”的相关研究内容。
讲授过程中,季姮教授介绍跨语言实体的发现和链接(EDL) (Ji etat,2014)是一项从外语文本中提取实体提及并将其链接到外部英语知识库(KB)的任务。“我们希望为许多语言提供改进的自然语言理解能力,然而对某些语言我们几乎没有语言资源和注释,也没有机器翻译技术。”季姮教授讲到。
季姮教授的讲座主要回顾了跨语言EDL的框架,并将其作为信息提取任务的广泛范例。我们将从讨论传统的EDL技术和度量开始,并解决与跨领域和跨语言的这些技术的充分性相关的问题,讲授中季姮教授向大家分享了展示最近的相关研究方法、观点和结果。
北大教授回顾与展望“机器学习理论”
北京大学信息科学技术学院教授,清华大学交叉信息研究院客座教授王立威在讲习班中指出,衡量机器学习算法性能最重要的指标是其泛化能力。泛化理论也是机器学习作为一个独立的学科,区别其它学术领域的核心理论。他介绍了机器学习中关于泛化能力的几个重要理论。首先介绍的VC理论刻画了经验风险最小化算法的泛化能力。对于SVM和Boosting这类学习算法,margin理论描述了confidence与泛化的关系。此外,王立威还介绍了algorithmic stability理论,这一理论说明所有具备训练稳定性的学习算法必然具有很好的泛化能力。最后,他对当前深度学习算法进行了讨论,包括深度网络的损失函数性质、随机梯度算法的鞍点逃逸,并探讨深度学习对于经典泛化理论带来的挑战,以及未来理论的发展方向。
微软亚洲研究院资深研究员给出“强化学习简介”
微软亚洲研究院资深研究员、经理,中国科学技术大学博士生导师秦涛指出,近年来,强化学习特别是深度强化学习在棋类、视屏游戏、机器人控制等问题上取得了极大的成功,成为人工智能研究的热点。他在报告中对强化学习做了一个简要介绍,该报告分为3个部分:第一,强化学习基础,包括马氏决策过程、Bellman方程、规划、最优控制、蒙特卡洛采样以及TD算法。第二,强化学习新算法,包括基于值函数的算法,基于策略函数的算法,以及基于两者的混合算法。第三,强化学习所面临的挑战,如鲁棒性、样本效率等。