摘 要:
深度神经网络已经成为众多智能系统和应用中不可或缺的关键技术,通过模型压缩减少神经网络模型的计算复杂度和资源消耗,可使其更好地应用和部署在手机、机器人、物联网等计算资源受限设备上。本报告主要介绍神经网络模型压缩领域的主要技术进展和发展趋势。在方法方面介绍模型压缩的剪枝、量化、知识蒸馏等方法,并分析如何与芯片架构设计相结合让模型压缩方法变得更加硬件友好。
报告人简介:
程健,现为中国科学院自动化研究所研究员。分别于1998年和2001年在武汉大学获数学学士和硕士学位,2004年在中国科学院自动化研究所获模式识别与智能系统博士学位。研究兴趣包括深度学习、芯片架构设计、图像与视频分析等问题研究。近几年带领团队提出了系列基于量化学习的模型压缩和加速算法,并研发了量化神经处理器(QNPU)芯片架构。研究成果曾先后获得中科院卢嘉锡青年人才奖、中科院青年促进会优秀会员奖、中国电子学会自然科学一等奖、中国图象图形学学会科技二等奖等。目前担任国际期刊《Pattern
Recognition》、《IET Computer Vision》的编委。
地点:计算机科学技术楼230室
时间:10月11日(星期日)14:00
|