中国科学院自动化研究所   设为首页   加入收藏  联系我们
 
English
网站首页     实验室概况     研究队伍     组织机构     学术交流     科研成果     人才培养     开放课题     创新文化     资源共享     联系我们
    新闻动态

实验室程健研究员率队问鼎NeurIPS2019模型压缩与加速竞赛双料冠军

日前,神经信息处理系统大会(NeurIPS 2019)于12月8日至14日在加拿大温哥华举行,程健研究员率队在本次大会的神经网络压缩与加速竞赛(MicroNet Challenge)中获得双料冠军!

今年的MicroNet Challenge神经网络压缩与加速竞赛由Google、Facebook、OpenAI等机构在NeurIPS2019上共同主办,集结了MIT、KAIST、华盛顿大学、浙大、北航等国内外著名前沿科研院校,同时还吸引了ARM、IBM、高通、Xilinx等国际一流芯片公司的参与。

MicroNet Challenge竞赛包括ImageNet图像分类、CIFAR-100图像分类和WikiText-103语言模型三个子任务,以模型的压缩率和加速比的比拼为主要内容,目的是通过算法达到最优的运算效率,牵引更高效的神经网络处理器架构设计,并最终实现神经网络软、硬件加速的协同设计。程健研究员团队参加了竞争最激烈的ImageNet和CIFAR-100两个子赛道比拼,并最终包揽了图像类的两项冠军。

团队结合极低比特量化技术和稀疏化技术,在ImageNet任务上相比主办方提供的基准模型取得了20.2倍的压缩率和12.5倍的加速比,在CIFAR-100任务上取得了732.6倍的压缩率和356.5倍的加速比,遥遥领先两个任务中的第二名队伍。

团队同时受邀在大会上以“A Comprehensive Study of Network Compression for Image Classification”为主题详细介绍了相关的量化和稀疏化压缩和加速技术。针对比赛任务,团队在报告中给出解决办法:采用量化和稀疏化技术,将深度学习算法模型进行轻量化和计算提速,以大幅降低算法模型对算力、功耗以及内存的需求,让低端设备实现人工智能方案。

团队成员冷聪副研究员表示,量化及稀疏化技术也是人工智能深度学习的软、硬件协同加速方案突破口。通过将其与人工智能硬件架构设计紧密结合,可以进一步降低人工智能技术落地难度,让AI更为易得易用。

友情链接
 
中科院自动化研究所 模式识别国家重点实验室
NLPR, INSTITUTE OF AUTOMATION, CHINESE ACADEMY OF SCIENCES