“AI之夏”学术沙龙系列讲座第1讲:面向信息检索的预训练

390 views

报告摘要

近年来,包括BERT、GPT等在内的大规模预训练语言模型被相继提出,并被证实能够在众多自然语言处理任务中发挥作用。在此带动下,如何将预训练语言模型应用在信息检索任务上也成为了信息检索领域的热点研究问题之一。此次报告将介绍我们在面向信息检索的预训练研究方面取得的一些进展。

主讲人信息

窦志成

教授,博导,中国人民大学高瓴人工智能学院副院长
窦志成,教授,博导,中国人民大学高瓴人工智能学院副院长,北京智源人工智能研究院“智能信息检索与挖掘”方向项目经理。主要研究方向为智能信息检索和自然语言处理,曾获国际信息检索大会(SIGIR 2013)最佳论文提名奖,亚洲信息检索大会(AIRS 2012)最佳论文奖,全国信息检索学术会议(CCIR 2018、CCIR 2021)最佳论文奖。担任SIGIR 2019的程序委员会主席(短文),信息检索评测会议NTCIR-16程序委员会主席等职务。近两年主要关注个性化和多样化搜索排序、交互式和对话式搜索模型、面向信息检索的预训练方法、搜索和推荐模型的可解释性、个性化产品搜索等。