2017/01/06 14:00 - 2017/01/06 17:30
广东省深圳市中科院自动化所智能化大厦三层学术报告厅
不限参加人数
2017/01/06 14:00 - 2017/01/06 17:30
广东省深圳市中科院自动化所智能化大厦三层学术报告厅
不限参加人数
时间:1月6日下午2:00-5:30
地点:中科院自动化所智能化大厦三层学术报告厅
中国计算机学会青年计算机科技论坛
CCF Young Computer Scientists & Engineers Forum
CCF YOCSEF
于2017年1月6日(星期五) 14:00-17:30
在中科院自动化所智能化大厦三层学术报告厅举行
学术报告会,敬请光临
报告会主题
深度学习
程 序
13:30 签到
14:00 报告会开始
特邀讲者:左旺孟 哈尔滨工业大学计算机学院教授
演讲题目:基于判别学习的图像去噪、复原与生成
特邀讲者:王乃岩 北京图森互联科技有限公司首席科学家
演讲题目:Domain adaptation, bilinear model and beyond
特邀讲者:汪玉 清华大学电子工程系长聘副教授
演讲题目:Deep Learning on FPGA
Panel讨论:GAN的能与不能
讨论嘉宾:胡清华,左旺孟,王乃岩,汪玉,张兆翔
执行主席:山世光 中科院计算技术研究所研究员,CCF YOCSEF AC学术秘书
执行主席:操晓春 中科院信息工程研究所研究员,CCF YOCSEF AC委员
参会者:IT领域专业人士、研究生、媒体等
联系:yocsef@ccf.org.cn (010)6260 0321ext20
费用(非CCF会员):学生50元/人/次,其他200元/人/次
免费参加方式:
1、CCF会员凭会员证免费参加;媒体免费参加。
2、非CCF会员办理入会手续,可以免费参加:
登录:https://web.ccf.org.cn/CCF/reg.action?flag=0,提交申请
会费:学生50元/年,会员:200元/年
缴费:https://www.ccf.org.cn/sites/ccf/jffs.jsp
注:现场可以办理CCF会员续费
深度学习
深度学习技术从最早的包含简单结构单元感知机开始到现在已经演化出了多种复杂的网络结构。深度卷积神经网络作为深度学习的主流模型,AlexNet、VGG-16、VGG-19等经典网络通过宽度或深度增加的参数可以有效地提升其模型的表达能力。但当网络变得越来越深,其训练难度也随之相应增加,最近的ResNet和Highway Networks等方法通过引入Skip跳跃结构来试图解决极深网络在优化上带来的问题。
目前深度学习正从有监督的学习慢慢向互动式的学习发展;网络结构由先向网络向有递归方式、考虑记忆、考虑时序的网络发;同时内容从静态的输入到动态的输入,在预测方式方面是从同时的预测慢慢变成一步一步序列化的预测。深度学习技术也面临着一系列的挑战首当其冲的是可用于训练的数据,如何选择合适的训练数据,并将之用于深度网络的训练?如何进行深度网络的目标函数的优化,逼近全局最优解?这些都是深度学习技术目前函待解决的问题。
深度学习技术已经在语音识别、文本处理等领域在工业上取得了巨大成功,随着基于深度学习技术的创业公司的建立,下一个突破的领域会是无人驾驶、人脸支付,还是其他领域?
本次报告会将邀请来自学术界、产业界的相关学者和专家,共同讨论深度学习的最新进展、未来趋势,以及新技术突破和产业机会。
特邀讲者左旺孟
博士,哈尔滨工业大学计算机学院教授、博士生导师。主要从事图像增强与复原、距离度量学习、目标跟踪、图像与视频分类等方面的研究。在CVPR/ICCV/ECCV等顶级会议和T-PAMI、IJCV及IEEE Trans.等期刊上发表论文50余篇。
报告摘要:通常的图像增强与复原方法多采用建模的思路,目前已出现了稀疏、低秩和非局域相似性等一批代表性模型和算法。然而,这些方法往往受限于形式而难以对图像整体、像素间的高度非线性和长程依赖关系进行建模。考虑到各种任务的差异性,以及丰富的训练数据,基于任务驱动的判别学习方法被认为能为提高图像复原性能提供新的解决思路,近年来也得到了一定的关注和发展。报告从针对问题发展判别学习方法和借鉴CNN模型两个角度,介绍我们近期在这方面的一些工作:(1) 针对图像盲去卷积问题,结合多尺度模型,采用了基于数据驱动的方式学习每次迭代的先验模型参数和正则化参数。(2) 针对图像去噪问题,通过分析残差学习与TNRD模型的关联关系,提出了一个面向图像去噪的卷积神经网络DnCNN,并分析了模型在广义去噪问题中的潜力。(3) 针对人脸属性转换中的不存在对应的监督数据的问题,提出了一种多阶段训练方法,以及基于生成式对抗学习策略来学习人脸属性转换网络的解决思路。
特邀讲者王乃岩
现任北京图森互联科技有限公司首席科学家,负责算法研发业务。在这之前,他于2015年毕业于香港科技大学计算机科学与工程系。他的主要研究方向为计算机视觉与数据挖掘,特别在于将统计计算模型应用到这两者的实际问题中去。他研究的主要侧重在于图像分类,目标追踪与推荐系统。
报告摘要:In this talk, I will briefly introduce the researches in TuSimple, which mainly focus on computer vision and machine learning techniques for autonomous driving. Specifically, I will introduce three works recently done. The first work is to modulate the batch normalization layer for domain adaptation. We propose a surprisingly simple yet effective way for domain adaptation in CNN. The second one is to utilize a factorized bilinear model to enhance the representation power of convolution and fully connected layer in CNN. We bring the nonlinearity into these linear computational layers with low cost. The last work is on the explanation of popular neural style transfer. Though it has achieved great success from both academia and industry, the principle behind it is far from explored. Inspired by the observations from previous two works, we provide a novel interpretation for neural style transfer. Particularly, we cast it as a special domain adaptation problem with second order polynomial kernel. We believe such insightful observation will enlighten future researches in the area.
特邀讲者汪玉
博士,清华大学电子工程系长聘副教授,博士生导师,国家优秀青年科学基金获得者。于2002年和2007年在清华大学分别获得学士和博士学位。主要研究方向为面向应用域的异构计算系统设计,低功耗高能效设计方法学,类脑计算系统等。发表文章150余篇,其中近30篇IEEE/ACM期刊文章,EDA、可重构领域顶级会议30余篇,谷歌引用1500余次。担任ACM SIGDA E-Newsletter 联合主编,IEEE TCAD编委,计算机学会体系结构专委会以及工程工艺专委会委员,ACM Distinguished Speaker,IEEE/ACM Senior Member。
报告摘要:Artificial neural networks, which dominate artificial intelligence applications such as object recognition and speech recognition, are in evolution. To apply neural networks to wider applications, customized hardware are necessary since CPU and GPU are not efficient enough. FPGA can be an ideal platform for neural network acceleration (inference part) since it is programmable and can achieve much higher energy efficiency compared with general-purpose processors. However, the long development period and insufficient performance of traditional FPGA acceleration prevent it from wide utilization. We propose a complete design flow to achieve both fast deployment and high energy efficiency for accelerating neural networks on FPGA [FPGA 16/17]. Deep compression and data quantization are employed to exploit the redundancy in algorithm and reduce both computational and memory complexity. Two architecture designs for CNN and DNN/RNN are proposed together with compilation environment. Evaluated on Xilinx Zynq 7000 and Kintex Ultrascale series FPGA with real-world neural networks, up to over 10 times higher energy efficiency can be achieved compared with mobile GPU and desktop GPU.
Panel嘉宾 胡清华
天津大学计算机学院教授、博导、副院长,天津大学机器学习与数据挖掘实验室负责人,中国人工智能学会理事,自动化学报编委。主要从事不确定性建模和多模态学习方面的研究,在IEEE Trans和IJCAI, AAAI等国际期刊和会议发表论文150余篇。部分成果被应用于空间天气预报、森林火灾风险评估以及大型设备故障诊断。2012年获国家首届优秀青年科学基金资助,入选教育部新世纪优秀人才,天津市131人才工程第一层次,2016年入选天津市中青年科技创新领军人才。曾天津市青年科技奖、黑龙江高校自然科学一等奖和黑龙江省自然科学一等奖。
Panel嘉宾 张兆翔
博士。CCF YOCSEF委员,CCF计算机视觉专委会委员,CCF人工智能与模式识别专委会委员,IEEE高级会员。现任中国科学院自动化研究所研究员,博士生导师,主持中国科学院先导研究计划,国家自然科学基金面上,国家自然科学基金国际合作与交流,国家863课题等项目十余项,在本领域主流期刊与会议上发表论文七十余篇,入选中国科学院脑科学与智能技术卓越创新中心年轻骨干、教育部新世纪优秀人才、北京市青年英才等。主要研究方向:计算机视觉、模式识别、类脑智能等。
执行主席山世光
博士。CCF YOCSEF AC学术秘书,中科院计算所研究员、博导,基金委优青,CCF青年科学奖获得者,现任中科院智能信息处理重点实验室常务副主任、中科视拓科技有限公司创始人、董事长兼CTO。他的研究领域为计算机视觉和机器学习。已发表CCF A类论文50余篇,论文被谷歌学术引用10000余次。曾应邀担任过ICCV,ACCV,ICPR,FG,ICASSP等国际会议领域主席,现任IEEE TIP, CVIU, PRL, Neurocomputing, FCS等国际学术刊物的AE。曾获2005年度国家科技进步二等奖(第三完成人)和2015年度国家自然科学奖二等奖(第二完成人)。
执行主席 操晓春
博士。CCF YOCSEF AC委员。中国科学院信息工程研究所信息安全国家重点实验室研究员、博导。毕业于北京航空航天大学和美国中佛罗里达大学。曾就职于美国ObjectVideo 公司和天津大学。主要从事多媒体内容安全和计算机视觉领域的研究。