微信里点“发现”,扫一下
二维码便可将本文分享至朋友圈
演讲摘要:随着⼤规模语⾔模型预训练技术的发展,诸如 ChatGPT 等具有代表性的⼤规模预训练语⾔模型因其良好的性能受到了⼴泛关注。然⽽,由于真实世界中的⼀些长尾知识的存在、知识的迭代更新以及模型所具有的⼤规模参数,现有⼤规模预训练语⾔模型很难通过微调参数以达到更新其内源知识的目的,实现检索增强模型能够很好地缓解⼤模型的“幻觉”问题。然⽽,当前研究表明在很多场景下,检索增强框架面临着外源知识噪音的影响。本报告介绍当前向量检索模型表示学习相关研究以及面向⼤模型的检索知识去噪相关研究。
讲者简介:东北⼤学副教授,清华⼤学自然语⾔处理实验室客座研究员,中⽂信息学会青⼯委委员,MLNLP 社区学术委员,CCF 信息系统专委执⾏委员,中⽂信息学会信息检索专委通讯委员。他在 2021 年获得清华⼤学⼯学博⼠学位,师从孙茂松教授。他的主要研究⽅向为自然语⾔处理、信息检索。在 ICLR、ACL、EMNLP、NAACL、SIGIR、WebConf、IJCAI、CIKM 等国际顶级会议上发表论⽂ 30 余篇。累计Google Scholar 引用 2000 余次。曾获曾获第⼗七届中国计算语⾔⼤会最佳论⽂奖、亚洲⼤学联盟论坛最佳⼝头报告奖、清华⼤学启航奖等。担任 MLNLP 2022-2023 ⼤会分论坛主席,ACL ARR、COLING、ICTIR 领域主席,中国计算语⾔学⼤会(CCL 2024)⽹络主席。 主持国家自然科学基⾦青年科学基⾦项目、北京智源⼈⼯智能研究院悟道项目、辽宁省联合基⾦项目等。