腾讯AI Lab多篇研究论文入选三大国际顶级学术会议
jopen 7年前
<p style="text-align:center"><img alt="腾讯AI Lab多篇研究论文入选三大国际顶级学术会议" src="https://simg.open-open.com/show/a845ecf84b302aa8ebeca72c905da52b.jpg" /></p> <p><strong>1. CVPR(IEEE 国际计算机视觉与模式识别会议)</strong></p> <p>CVPR 是近十年来计算机视觉领域全球最有影响力、内容最全面的顶级学术会议,由全球最大的非营利性专业技术学会 IEEE(电气和电子工程师协会)主办。2017 谷歌学术指标(Google Scholar)按论文引用率排名, CVPR 位列计算机视觉领域榜首。今年 CVPR 审核了 2620 篇文章,最终收录 783 篇,录取率 29%,口头报告录取率仅 2.65%。</p> <p>腾讯 AI Lab 计算机视觉总监刘威博士介绍到,「CVPR 的口头报告一般是当年最前沿的研究课题,在学界和工业界都影响很大,每年都集齐如斯坦福大学和谷歌等全球最知名高校和科技公司。」</p> <p><strong>腾讯 AI Lab 六篇论文入选 CVPR</strong></p> <p>论文一:Real Time Neural Style Transfer for Videos</p> <p>本文用深度前向卷积神经网络探索视频艺术风格的快速迁移,提出了一种全新两帧协同训练机制,能保持视频时域一致性并消除闪烁跳动瑕疵,确保视频风格迁移实时、高质、高效完成。</p> <p>论文二:WSISA: Making Survival Prediction from Whole Slide Histopathological Images</p> <p>论文首次提出一种全尺寸、无标注、基于病理图片的病人生存有效预测方法 WSISA,在肺癌和脑癌两类癌症的三个不同数据库上性能均超出基于小块图像方法,有力支持大数据时代的精准个性化医疗。</p> <p>论文三:SCA-CNN: Spatial and Channel-wise Attention in Convolutional Networks for Image Captioning</p> <p>针对图像描述生成任务,SCA-CNN 基于卷积网络的多层特征来动态生成文本描述,进而建模文本生成过程中空间及通道上的注意力模型。</p> <p>论文四:Deep Self-Taught Learning for Weakly Supervised Object Localization</p> <p>本文提出依靠检测器自身不断改进训练样本质量,不断增强检测器性能的一种全新方法,破解弱监督目标检测问题中训练样本质量低的瓶颈。</p> <p>论文五:Diverse Image Annotation</p> <p>本文提出了一种新的自动图像标注目标,即用少量多样性标签表达尽量多的图像信息,该目标充分利用标签之间的语义关系,使得自动标注结果与人类标注更加接近。</p> <p>论文六:Exploiting Symmetry and/or Manhattan Properties for 3D Object Structure Estimation from Single and Multiple Images</p> <p>基于曼哈顿结构与对称信息,文中提出了单张图像三维重建及多张图像 Structure from Motion 三维重建的新方法。</p> <p><strong>2. ACL(国际计算机语言协会年会)</strong></p> <p>ACL 是计算语言学里最重要的国际会议,今年是第 55 届。会议涵盖生物医学、认知建模与心理语言学、交互式对话系统、机器翻译等各个领域,今年有 194 篇长论文、107 篇短论文、21 个软件演示及 21 篇主题演讲。在 2017 谷歌学术指标(Google Scholar)按论文引用率排名, ACL 是计算机语言学和自然语言处理领域最高级别国际学术年会。</p> <p>腾讯 AI Lab 副主任俞栋认为,「自然语言的理解、表达、生成和转换一直是自然语言处理的核心问题。近年来有很多新的解决思路和方法。今年的 ACL 涉及自然语言处理的各方面,尤其在语义解析、语义角色标注、基于语义和语法的自然语言生成、机器翻译和问答系统方向上都有一些有趣的工作。」</p> <p>腾讯 AI Lab 主任张潼介绍到,「ACL 早期利用语法和规则分析自然语言,90 年代后,随着以 LDC(Linguistic Data Consortium)为代表的自然语言数据集建立扩充,统计自然语言方法在计算语言学里作用越来越大并成为主流。2000 年后随着互联网高速发展及以自然语言为核心的人机交互方式兴起,自然语言研究被赋予极高应用价值。」</p> <p><strong>腾讯 AI Lab 三篇文章入选 ACL</strong></p> <p>论文一:Modeling Source Syntax for Neural Machine Translation</p> <p>本文提出将句法树转化为句法标签序列的轻量级方法,有效将源端句法信息引入神经网络翻译系统,被证实能显著提高翻译效果。</p> <p>论文二:Chunk-Based Bi-Scale Decoder for Neural Machine Translation</p> <p>本文引入一个额外组块神经网络层,从组块到词的层次生成译文,帮助实现神经网络翻译系统短语级别的建模,实验表明该方法在多种语言上都能显著提高翻译效果。</p> <p>论文三:Deep Pyramid Convolutional Neural Networks for Text Categorization</p> <p>文章提出了一种能有效表达文本长距离关系的复杂度词粒度 CNN。本文研究了如何加深词粒度 CNN 对文本进行全局表达,并找到了一种简单网络结构,通过增加网络深度提升准确度,但不过多增加计算量。实验表明 15 层的 DPCNN 在六个情感和主题分类任务上达到了目前最佳结果。</p> <p><strong>3. ICML(国际机器学习大会)</strong></p> <p>机器学习是人工智能的核心技术,而 ICML 是机器学习最重要的两个会议之一(另一个是 NIPS)。ICML 源于 1980 年在卡内基梅隆大学举办的机器学习研讨会,现由国际机器学习学会(IMLS)主办。2017 谷歌学术指标以「机器学习」关键词排名,ICML 位列第一。</p> <p>腾讯 AI Lab 主任张潼博士介绍到,「很多经典论文和算法,如 CRF,都是在 ICML 上首次提出的,这个会议涉及机器学习相关的所有研究,包括近年非常热门的深度学习、优化算法、统计模型和图模型等。在早期,ICML 更注重实验和应用,而 NIPS 更注重模型和算法,但近年来两个会议有些趋同。」</p> <p><strong>腾讯 AI Lab 四篇文章入选 ICML</strong></p> <p>论文一:Scaling Up Sparse Support Vector Machines by Simultaneous Feature and Sample Reduction</p> <p>本文提出了第一个能在模型训练开始前,同时检测和去除稀疏支持向量机中不活跃样本和特征的筛选算法,并从理论和实验中证明其能不损失任何精度地把模型训练效率提升数个量级。</p> <p>论文二:GSOS: Gauss-Seidel Operator Splitting Algorithm for Multi-Term Nonsmooth Convex Composite Optimization</p> <p>本文提出了求解多块非光滑复合凸优化问题的算子分裂新算法,该算法采用 Gauss-Seidel 迭代以及算子分裂的技巧处理不可分的非光滑正则项,并以实验证实了该算法的有效性。</p> <p>论文三:Efficient Distributed Learning with Sparsity</p> <p>本文提出了一个高维大数据中能更有效学习稀疏线性模型的分布式算法。在单个机器训练样本足够多时,该算法只需一轮通信就能学习出统计最优误差模型;即使单个机器样本不足,学习统计最优误差模型的通信代价只随机器数量对数曲线上升,而不依赖于其他条件数。</p> <p>论文四:Projection-free Distributed Online Learning in Networks</p> <p>本文提出了去中心化的分布式在线条件梯度算法。该算法将条件梯度的免投影特性推广到分布式在线场景,解决了传统算法需要复杂的投影操作问题,能高效处理去中心化的流式数据。</p> <p>此外,我们还受邀参加以下三个会议:8 月 7 日-11 日东京举办的 SIGIR(国际计算机协会信息检索大会),入选论文 3 篇。8 月 19 日-25 日墨尔本举办的 IJCAI(国际人工智能联合会议),入选论文 6 篇。及 9 月 7 日-11 日哥本哈根举办的 EMNLP(自然语言处理实证方法会议),入选论文 7 篇。</p> <p>来自: <a href="/misc/goto?guid=4959009820106813197" id="link_source2">腾讯科技</a></p>