微信里点“发现”,扫一下
二维码便可将本文分享至朋友圈
演讲摘要:随着 ChatGPT、GPT-4 等大语言模型的智能水平的提升,通用人工智能也越来越接近。但“越智能越危险”,大语言模型的安全性研究变得越来越重要:偏见歧视、隐私、滥用、伦理、价值观等各种安全性问题成为广泛关注的问题,人工智能治理也成为智能社会的亟待规范的课题。讲者将围绕大语言模型尤其是中文大语言模型、对话系统的安全性和超级对齐问题,阐述其在弱到强泛化(weak-to-strong generalization)、规模化监督(scalable oversight)、精确对齐、模型权重外插等方面的工作
讲者简介:黄民烈教授,清华大学教授,清华大学基础模型研究中心副主任,国家杰出青年基金获得者。曾获得中国人工智能学会吴文俊人工智能科技进步奖一等奖、电子学会科技进步一等奖、中文信息学会汉王青年创新奖,微软合作研究奖等。在国际顶级会议和期刊发表论文 150 多篇,谷歌引用 20000 多次,8 次获得国际顶级会议最佳论文或提名奖(ACL、IJCAI、SIGDIAL 等)。连续多年入选 Elsevier 中国高被引学者,AI 2000 全球最有影响力 AI 学者榜单,多次获得国际顶级会议优秀论文奖。他长期从事人机对话中的情感智能研究,研发了首个心理大模型 Emohaa 和角色对话大模型CharacterGLM,广泛用于心理疏导、心理咨询、情感陪伴等场景。