软硬件协同设计与计算论坛

简介

深度学习算法和高性能算力让人工智能在过去十几年取得了巨大成功。为了获得更高的性能和通用性,深度学习算法被设计得越来越复杂,万亿级参数的模型正成为现实;另一方面,随着摩尔定律的消亡,芯片仅靠工艺的提升就能大幅提升性能的时代一去不复返,算力难以满足算法快速增长的需求。近年来,探索通过量化、剪枝、蒸馏等方法可以大幅压缩深度学习模型,减少其计算量,让深度学习模型可有效部署到边缘端设备上,但也存在很多模型压缩方法无法有效适配各种硬件架构,使其无法真正加速模型推理过程。 本论坛将探讨从软硬件协同设计的角度去提升智能计算的效率,应对深度学习在训练、部署和应用场景下遇到的计算挑战。论坛邀请多位来自学界和企业界的专家分别从不同角度探讨和分享他们在软硬件协同设计、计算和应用方面的最新成果和见解。

直播回放
CCF数图-直播回放
日程
时间:12月9日11:00-15:00
地点:线上会议室12
时间 议程 主持人/演讲嘉宾
基于FPGA的高能效轻量级神经网络加速器优化 哈亚军
人工智能芯片的进展与挑战 尹首一
能耗高效的新型深度神经网络 王云鹤
百度文心·CV大模型:算法和应用 王井东
软件2.0时代的自动驾驶技术及AI计算架构 穆黎森
主席

程健

研究员

个人简介:程健,中科院自动化所研究员、中科南京人工智能创新研究院院长、国家万人计划创新领军人才。主要从事深度学习、图像与视频内容分析、芯片架构设计等方面研究,在IEEE TPAMI、TCAD、TIP、JMLR、NeurIPS、ICML、CVPR、ICCV、AAAI等相关领域发表学术论文100余篇;先后主持科技部创新2030-“新一代人工智能”重大项目、国家自然科学基金等项目。相关成果曾先后获得中科院卢嘉锡青年人才奖、中科院青年促进会优秀会员奖、中国电子学会科技一等奖、中国图象图形学会科技二等奖、江苏省自然科学一等奖等。担任国际期刊《Pattern Recognition》、IET 《Computer Vision》的编委,曾担任2010年ICIMCS国际会议主席、HHME 2010组织主席、CCPR 2012出版主席、ICIG 2019 special Session主席。

共同主席

哈亚军

教授

报告题目:基于FPGA的高能效轻量级神经网络加速器优化

报告摘要:基于卷积神经网络的人工智能算法越来越多地出现在人们的日常生活中, 在辅助驾驶、无人超市、智慧医疗、工业机器人等领域得到了广泛应用。然而, 卷积神经网络取得优异性能的同时, 计算量和参数量相比传统算法显著增加。在此背景下, 轻量级卷积神经网络模型被提出并广泛应用在电源和散热条件都极其有限的边缘计算场景。然而, 基于CPU 的通用计算平台无法满足卷积神经网络对算力的需求, GPU 平台更适合高并行的传统网络模型, 部署轻量级神经网络时的效率较低, FPGA 得益于其高性能、高能效、高灵活性的特点, 正在成为部署神经网络的重要平台。 本报告着眼于设计并优化基于FPGA的高能效轻量级卷积神经网络加速器, 从算法、电路和系统三个层面进行了探索。在算法层面, 结合硬件对算法的需求优化了用于轻量级神经网络的量化算法; 在电路层面, 设计了高效的轻量级神经网络加速器以及面向FPGA 加速器的自适应电压频率调整平台; 在系统层面, 将电路层面的神经网络加速器与自适应电压频率调整结合, 探索了自适应电压频率调整对加速器性能、功耗和精度的影响。

个人简介:哈亚军教授在浙江大学、新加坡国立大学及比利时鲁汶大学分别获得电子工程学士、硕士及博士学位。他目前是上海科技大学教授,国家自然科学基金“外国资深学者”和“重点国际(地区)合作”研究基金获得者,IEEE Transactions on Circuits and Systems II: Express Briefs(2022-2023)主编 (Editor-in-Chief)。他曾是新加坡信息通信研究院实验室主任,以及新加坡国立大学电子与计算机工程系的兼职副教授。他的研究兴趣包括FPGA电路/架构/工具、超低功耗数字集成电路和系统,以及以上研究在智能汽车、机器学习和硬件安全中的应用。

嘉宾

尹首一

教授

报告题目:人工智能芯片的进展与挑战

报告摘要:近年来,人工智能迎来了革命性的大发展。以深度学习为代表的人工智能技术正推动人类社会从信息化 时代迈入智能化时代。人工智能的发展离不开“算力、算法、数据”三个关键要素的有力支撑,其中计算芯片提供的算力是承载和推动人工智能走向广泛应用的关键基础。随着人工智能快速从云端迁移到各类电子信息设备中,不断涌现的各类应用对计算芯片的算力、功耗和灵活性同时提出了严峻的挑战。研制可编程高能效人工智能芯片成为智能化时代必然选择。本报告从人工智能芯片的发展概况、技术路线、发展趋势、我国的优势和短板等方面系统介绍人工智能芯片领域的进展与挑战。

个人简介:尹首一,博士,清华大学教授,集成电路学院副院长,国家杰出青年科学基金获得者,国家“新一代人工智能”重大项目专家组成员。研究方向为可重构计算、人工智能芯片设计。已发表学术论文200余篇,包括IEEE JSSC、TPDS、TCSVT、TVLSI、TCAS-I/II和ISSCC、ISCA、VLSI、DAC、HPCA等集成电路和体系结构领域权威期刊和学术会议。出版《可重构计算》、《人工智能芯片设计》专著2部。曾获国家技术发明二等奖、中国电子学会技术发明一等奖、中国发明专利金奖、教育部技术发明一等奖、江西省科技进步二等奖、中国电子学会优秀科技工作者奖、中国电子信息领域优秀科技论文奖。 现任集成电路领域国际会议IEEE DAC、ICCAD、DATE、ASPDAC和A-SSCC的技术委员会委员,国际期刊《IEEE Transactions on Circuits and System I: Regular Papers》、《ACM Transactions on Reconfigurable Technology and Systems》及《Integration, the VLSI Journal》的Associate Editor。

嘉宾

王云鹤

华为算法应用部部长

报告题目:能耗高效的新型深度神经网络

报告摘要:深度神经网络的优势已经在很多任务展现了巨大优势,随着性能的提升,算力的增长已经成为了应用过程中的巨大瓶颈。面临这个业界挑战难题,加法神经网络和一系列低比特量化技术应运而生,配合硬件的协同创新,可以在内存、功耗、面积上取得较大的收益。

个人简介:王云鹤,华为算法应用部部长。在华为诺亚方舟实验室从事人工智能算法的研发和在实际业务中的应用落地。主要的研究领域包含计算机视觉、机器学习、模型压缩、高能效AI计算等。在相关领域发表CCF A类学术论文近百篇,包含NeurIPS、ICML、CVPR、ICCV、IEEE TPAMI等。担任NeurIPS和ICML的领域主席,VALSE的高级领域主席。多项算法落地工业界产品,包含近几年发布的华为手机。主导的加法神经网络项目受到了业界的广泛关注。

嘉宾

王井东

百度计算机视觉首席科学家

报告题目:百度文心·CV大模型:算法和应用

报告摘要:本报告从预训练、下游任务算法、以及应用三个方面,介绍百度文心·CV大模型。预训练算法方面,主要围绕自监督表征预训练、以及图文弱监督表征预训练等展开讨论,并分析这两者之间的优势。下游任务算法方面,主要介绍基于transformer的2D和3D目标检测算法。应用方面,围绕百度在视觉大模型实际应用中的探索,包括自动驾驶感知和数据挖掘、智慧道路、能源等行业中的应用,涉及的技术包括自训练、特征蒸馏等。

个人简介:王井东,百度计算机视觉首席科学家,负责计算机视觉领域的研究、技术创新和产品研发。2001和2004年在清华大学自动化系先后获得学士学位和硕士学位,2007年在香港科技大学计算科学与工程系获得博士学位。研究领域为计算机视觉、深度学习及多媒体搜索。代表工作包括高分辨率神经网络(HRNet)、基于有监督的区域特征融合(DRFI)的显著目标检测及基于近邻图的大规模最近邻搜索(NGS,SPTAG)等。曾担任过许多人工智能会议的领域主席,如 CVPR、ICCV、ECCV、AAAI、IJCAI、ACM MM等。现为IEEE TPAMI和IJCV的编委会成员,曾是IEEE TMM和IEEE TCSVT编委会成员。因在视觉内容理解和检索领域的杰出贡献,被遴选为国际电气电子工程师学会和国际模式识别学会会士 (IEEE/IAPR Fellow)、ACM杰出会员。

嘉宾

穆黎森

地平线算法平台总架构师

报告题目:软件2.0时代的自动驾驶技术及AI计算架构

报告摘要:高等级自动驾驶落地,AI计算逐渐取代逻辑计算,成为车载计算的核心。面对AI计算需求大幅提升,地平线提出“AI计算的新摩尔定律”,通过软件、算法和硬件架构联合优化,自主研发智能计算架构BPU(Brain Processing Unit),实现高效的AI计算,加速智能计算架构2.0时代的到来。本报告从软件2.0与智能驾驶技术趋势判断入手,系统介绍软硬结合的高性能智能计算架构,以及基于征程5芯片的自动驾驶算法实践。

个人简介:穆黎森,地平线算法平台总架构师,负责地平线产品研发技术架构设计。毕业于清华大学计算机科学与技术系,在算法开发、强化学习、机器学习等领域皆有深厚的研发及应用落地经验。