中国科学院自动化研究所   设为首页   加入收藏  联系我们
 
English
网站首页     实验室概况     研究队伍     组织机构     学术交流     科研成果     人才培养     开放课题     创新文化     资源共享     联系我们
    学术交流

周志华教授来室访问并做“Boosting发展历史及最新进展”的学术讲座

4月16日下午,应实验室的邀请,南京大学的周志华教授来室访问,并在自动化所做关于“Boosting发展历史及最新进展”的学术讲座。周教授在集成学习方面具有深厚的功底,在国际机器学习研究界具有很高的知名度。讲座现场非常火爆,座无虚席。

周志华教授首先从Boosting的发展历史讲起,用通俗的语言梳理了一种重要的Boosting算法:AdaBoost的发展,以及它在数据挖掘、计算机视觉、机器学习中的重要地位和成功应用。最早的AdaBoost算法源于1989年关于“弱学习器约等于强学习器?”的开放问题。1990年该开放问题被证明是成立的,这样产生了世界上第一个Boosting算法。1997年AdaBoost算法正式发表,随后产生了很多变种,比如Arc-x4,LPBoost等。包括AdaBoost在内的集成学习算法在国际知识发现和数据挖掘竞赛(KDD-Cup)中多次获得性能第一,在人脸检测等视觉目标检测中成为标准的算法,进一步印证了集成学习算法的重要性和优越性。接着,周教授带领大家转向了Adaboost算法的基础理论研究问题:“为什么Adaboost算法能够抵制过拟合”。周教授讲到:“关于泛化性能的解释分为两个流派:大间隔观点和统计观点”。而周老师本人站在大间隔理论那一方。随后周老师用通俗的语言介绍了一系列关于大间隔理论的研究进展,并给出了他们最近发表在人工智能杂志(Artificial Intelligence Journal)上的理论成果。至此,Adaboost为何能够抵制过拟合得到了有效的解释和证明。

周志华教授本人从事机器学习研究多年,能够将Boosting算法的发展及基础理论问题讲得通俗易懂,引人入胜。讲座过程中,同学们聚精会神,真正领略了大师风范,增强了对Boosting算法及相关机器学习理论的认识。一个半小时的报告在不知不觉中结束了,同学们意犹未尽。

 

 

友情链接
 
中科院自动化研究所 模式识别国家重点实验室 事业单位  京ICP备14019135号-3
NLPR, INSTITUTE OF AUTOMATION, CHINESE ACADEMY OF SCIENCES