2019年4月21日,由中国计算机学会计算机视觉专委会(CCF-CV)主办,国防科技大学系统工程学院承办的第71期CCF-CV走进高校系列报告会活动——“计算机视觉前沿技术及应用”在国防科技大学103教学楼106教室举行。实验室叶齐祥教授做了"Weakly Supervised Object Detection, Localization, and instance segmentation"的报告。
本期报告会邀请了中山大学林倞教授,清华大学鲁继文副教授,复旦大学姜育刚教授,微软亚洲研究院王井东研究员,华中科技大学白翔教授,厦门大学纪荣嵘教授,浙江大学章国锋教授,中国科学院大学叶齐祥教授,中国科学院自动化研究所赫然研究员,清华大学孙富春教授十位专家学者做特邀报告。国防科技大学系统工程学院刘丽副教授、郭得科教授和智能科学学院胡德文教授担任本次报告会的执行主席。报告会吸引了来自国防科技大学、中南大学、湖南大学、湖南师范大学、长沙理工大学、湘潭大学、湖南农业大学、西北工业大学等高校约200人聆听计算机视觉领域的专家学者在该领域的最新前沿技术及应用报告。
林倞教授的报告题目是“Representation Learning Meets Knowledge Reasoning: New Trends in AI”,在报告中,林教授重点介绍了人们越来越关注的将符号知识和常识推理与特征表征学习相结合的技术,并且介绍了一些在上述问题取得不错结果的开创性工作,还介绍了他们小组关于这个新方向的几个相关工作,例如改进大规模物体检测的图形推理和知识路由关系对话系统。
鲁继文副教授的报告题目是“深度度量学习与视觉内容理解”,鲁老师首先解释了深度度量学习目标和意义,以及深度度量学习的发展历史。然后分别介绍了小样本、多视图、对抗性以及非均衡的深度度量方法。通过将深度学习的特征表示能力与度量学习的相似性刻画能力相结合,以端对端的方式实现从原始输入到语义输出的感知,在多个视觉任务中均取得了重要进展。在报告中,鲁老师介绍了清华大学自动化系智能视觉实验室近年来提出的面向视觉内容理解的多个深度度量学习方法,包括深度对抗度量学习、深度迁移度量学习、深度耦合度量学习、深度变分度量学习、多模态深度度量学习等,以及它们在人脸检测与识别、行人识别与跟踪、图像与视频检索等多个视觉内容理解任务中的应用。
姜育刚教授的报告题目是“视频内容识别:数据、算法、应用”,姜老师主要介绍他们组近年来在视频分析领域的研究成果,包括在基于深度学习的视频分析算法设计,大规模视频数据集构建以及应用系统研发等方面完成的工作。姜老师的报告风格幽默,通过大量的视频demo充分的调动了大家的兴趣,同学们在一阵阵笑声中深入的了解了视频内容分析的前沿性和实用性。
王井东研究员的报告题目是“Deep high-resolution representation learning for visual recognition”,王老师首先用大量的例子阐述了高分辨率表示学习在视觉问题中至关重要的作用,之后王老师介绍了他们在该领域的最新研究成果--高分辨率网络(HRNet)。 HRNet通过并行连接高分辨率卷积来维持高分辨率表示,并通过在并行卷积中重复执行多尺度融合来增强高分辨率表示。在像素级分类(语义分割、人脸对齐和人体姿态估计)、区域级分类(COCO对象检测)和图像级分类中,证明了这些方法的有效性。
白翔教授的报告题目是“基于通量表示的骨架检测与文字检测方法”,白教授首先阐述了骨架检测和文字检测的巨大应用价值。接着,白教授从目前骨架检测方法中存在的部分问题出发,介绍一种新的基于通量表示的骨架检测方法,之后展示这种通量表示也可以可在多方向和曲形文本检测起到关键作用,可以克服目前文字检测方法中存在的部分问题,给不规则文字的检测提供了一种新的思路。
纪荣嵘教授的报告题目是“紧致化计算机视觉分析系统”,在报告中,纪老师介绍了他们研究组针对视觉大数据搜索识别系统中的紧凑性问题,在视觉特征紧凑表示和深度网络压缩中的一些工作与成果。在视觉特征紧凑表示方面,他们通过引入大规模无监督排序信息,学习排序敏感的哈希码,以保持原始高维特征空间中的检索信息。在深度网络压缩方面,介绍了面向特定任务(人脸和视觉场景解析)的深度网络级联压缩模型(串行低秩矩阵分解技术)与加速模型(结构化稀疏约束剪枝技术)。最后介绍了上述研究工作在腾讯\滴滴\华为等视觉产品中的实际应用。
章国锋教授的报告题目是“视觉SLAM技术与AR应用”,在报告中,章老师结合他们研究组最近几年在SfM/SLAM方面的工作,为大家讲解了SLAM技术如何实现稳定求解和高效求解的研究思路和实现方法,并且分享了一个最近刚做的面向AR的单目惯性SLAM数据集和基准,以及SLAM技术在AR上的应用。
叶齐祥教授的报告题目是“Weakly Supervised Object Detection, Localization, and instance segmentation”。在报告中,叶老师介绍了一种用于弱监督目标检测的最小熵潜伏模型(MELM)。MELM被分解为三个组件,包括提案团分区、对象团发现和对象本地化。采用递归学习算法对MELM进行优化,该算法利用连续优化来解决具有挑战性的非凸性问题。除了弱监督对象检测,叶老师还介绍了他们提出的弱监督定位和弱监督实例分割。
赫然研究员的报告题目是“生成式人脸图像分析和识别”,在报告中,赫老师首先介绍了对抗生成网络理论和方法,基于生成对抗网络生成新的图像,不但可以提高原有图像的质量,同时还可以为识别分析算法提供大量的训练数据。然后介绍他们团队近期开展的人脸图像生成和识别方法,包括全光函数、生成对抗网络、身份保持损失和人脸图像旋转、人脸超分、表情生成等。
孙富春教授的报告题目是“视触多模态传感装置及其在机器人灵巧操作中的应用”,孙老师系统论述了面向精细操作的机器人视触传感器的发展。重点介绍了研究团队研制的视触觉传感装置,从信物融合系统“感-联-知”的角度,介绍了“感”部分的高密度触觉阵列传感器和微视觉多模态指尖传感器,“联”部分的模块内和模块间测量点互联和视触关联,以及“知”部分相关认知计算方法。最后,孙老师介绍了该传感器在机器人灵巧操作的应用。
以上新闻来源:CCF计算机视觉专委会