1200字范文,内容丰富有趣,写作的好帮手!
1200字范文 > 直播预告|5月26日14:00 AAAI 专场三

直播预告|5月26日14:00 AAAI 专场三

时间:2022-06-04 04:03:17

相关推荐

直播预告|5月26日14:00 AAAI 专场三

点击蓝字

关注我们

AI TIME欢迎每一位AI爱好者的加入!

5月26日14:00,本期我们邀请到AAAI的七位学者给大家带来精彩的分享!

5月26日 14:00-14:30

龚元:

美国麻省理工学院-计算机科学和人工智能实验室的博士后研究员。此前他在复旦大学和美国圣母大学分别获得学士()和博士()学位。他的研究兴趣主要是音频信号处理和自然语言处理。他曾获得AVEC-挑战第一名及Interspeech 最佳学生论文提名。

分享内容:

音频Transformer - 一种强大

简单的音频分类新工具

报告简介:

紧随着完全基于注意力机制的模型Transformer在自然语言处理和计算机视觉任务的巨大成功, 它也被应用在音频分类任务中并超越了之前主流的基于卷积神经网络的方法。本报告将简单回顾在最近十年中音频分类领域方法的发展(人工特征-基于CNN的端对端系统-音频Transformer), 并重点介绍新模型 - 音频Transformer (Audio Spectrogram Transformer)的构造,训练,和预训练方法。

5月26日 14:30-15:00

蒲韬:

中山大学计算机学院级博士生,导师为林倞教授。在此之前,他于获得中山大学学士学位。他的主要研究领域是视觉理解(Visual Understanding)和认知推理(Cognitive Reasoning),具体方向包括多标签图像识别,视频问答等。

分享内容:

部分标签场景下的多标签图像识别任务

报告简介:

相较于单标签图像识别,多标签图像识别(Multi-label Image Recognition, MLR)更具有挑战性并且在现实生活中有着更多的应用场景。然而,当前大部分 MLR 算法需要大量完整标注的图像数据去训练模型,这不仅使得标注成本变得难以接受,还令所收集到的数据集难以进行拓展。为了减少标注成本,近年来人们开始研究部分标签场景下的多标签图像识别任务(Multi-label Image Recognition with Partial Labels, MLR-PL),即每张训练图像仅有部分标签被标注。针对上述任务,我们分别提出了两种解决思路,即结构化语义迁移(Structured Semantic Transfer)和语义感知表示混合(Semantic-Aware Representation Blending)。在多个 MLR 基准数据集上,我们通过大量对比实验验证了这两种方法的有效性。

5月26日 15:00-15:30

曲麟昊:

复旦大学基础医学院数字医学研究中心级博士生,导师为宋志坚教授。他的主要研究领域是医学图像处理、信息融合、数据挖掘等。

分享内容:

TransMEF:一种基于Transformer的

多任务自监督多曝光图像融合框架

报告简介:

本研究提出了TransMEF: 一种基于Transformer的多任务自监督多曝光图像融合框架。该框架是一种基于编解码网络的架构,可以缓解当前多曝光图像融合训练数据集和相应的金标准获取困难的问题。为了使该架构既能够在大型的自然数据集上进行训练,也能够针对性的学习到多曝光图像融合的特点,本研究针对多曝光图像的特点设计了三个自监督重建任务。该架构通过多任务学习的方式同时完成三个自监督重建任务,使网络在图像重建的过程中学习到针对多曝光图像融合的特点,同时提取到更加泛化性的特征。为了弥补基于CNN的架构很难建立长距离依赖关系的不足,本研究设计了一种CNN架构与transformer架构结合的特征提取模块“TransBlock”,使网络能够同时关注到全局和局部的信息。为了进行公平和全面的性能评估,本研究使用最新发布的多曝光图像融合benchmark数据集作为测试数据集。本研究从四个方面选取了12种客观评价指标并与目前MEF领域性能最先进的11种传统和深度学习方法进行对比,在主观和客观评估方面都达到了最好的性能。

5月26日 15:30-16:00

郭嘉懿:

清华大学自动化系级博士研究生,导师为宋士吉教授和黄高教授,他的主要研究方向是深度生成模型和多模态学习。

分享内容:

基于参考图像的单张生成图像质量评价方法

报告简介:

现有的生成图像评价工作主要基于生成图像的分布对模型「整体」的生成效果进行评价。然而,一个性能优异的生成模型并不代表其合成的「任何一张」图像都具有高质量的效果。在基于参考图像(reference image)的生成任务中,譬如将用户上传的风景照渲染成某种指定的风格的业务场景中,能够对于「单张」生成图像的质量进行评价,对于提高用户的使用体验是至关重要的。本研究提出了基于参考图像的单张生成图像质量评价方法Reference-guided Image Synthesis Assessment (RISA)。RISA 的贡献和创新点可以总结为以下几个方面:1) RISA 的训练图像来自于 GAN 训练过程的中间模型生成的图像,图像的质量标签来自于模型的迭代轮数,无需人工标注,理论上可用于训练的数据无上限。2) 由于以模型的迭代轮数作为标注不够精细,采用了pixel-wise interpolation和mutiple binary classifiers的方法来增强训练的稳定性。3) 引入了无监督的对比学习损失,学习参考图像和生成图像之间的风格相似度。多个数据集的实验结果均表明,RISA评价与人类主观请假高度一致,并且可以很好地跨模型迁移。

5月26日 16:00-16:30

杜沅岂:

乔治梅森大学本科生,即将前往Cornell读计算机科学博士。研究兴趣为AI for Science,深度生成模型,与几何机器学习。在顶级会议和期刊如NeurIPS,ICML,ICLR,KDD,AAAI,Bioinformatics发表论文并担任审稿人。

分享内容:

解耦的时空图生成模型

报告简介:

时空图是一种非常重要的数据结构,其中节点和边镶嵌在一个空间中,并且整个时空图随时间变化。在近些年,时空图随着其能表达的现实世界数据一同越来越受关注,从微小规模蛋白折叠,到中等规模脑网络连接性,到模拟宏观人员流动图。其中,虽然解耦和理解时空图,尤其是其中图层面,空间层面,时间层面,已经是一个悠久的网络科学问题,但是他们通常依赖于人类累积的知识和对于世界的理解。这会导致在一些仅有微少累积知识的领域的研究变得非常困难。在我们的工作中,我们致力于推动理解和建模时空图通过一个提出的新的时空图生成模型。其中,我们提出了一个新的贝叶斯模型分解图层面,空间层面,时间层面与他们的交叉层面。我们提出了一个新的变分目标函数和一个从信息论启发的互信息阈值法确保结构以上几种时空图中的信息。定量和定性分析在多个合成和真实数据集上展现我们提出模型的优势,并超过此前最好模型。

5月26日 16:30-17:00

李东方:

哈尔滨工业大学(深圳)智能计算研究中心博士生。研究兴趣为医疗和金融 NLP,以及模型稳健性和可解释性。在领域顶级会议和期刊发表过论文并担任审稿人,曾获得腾讯犀牛鸟精英人才和国家奖学金等。

分享内容:

可解释和稳健的文本分类及证据提取

报告简介:

最近的工作表明,可解释性和稳健性是值得信赖和可靠的文本分类的两个关键部分。然而,以前的工作通常涉及两个方面中的一个:i)如何提取准确的可解释性证据,同时对预测有益;ii)如何使预测模型对不同类型的对抗性攻击具有稳健性。直观地说,一个能产生有用解释的模型应该对对抗性攻击更加稳健,因为我们不能相信输出解释但在小扰动下改变预测的模型。为此,我们提出一个名为AT-BMC的联合分类和证据提取模型。它包括两个关键机制:混合对抗训练旨在使用离散和嵌入空间的各种扰动来提高模型的稳健性,而边界匹配约束有助于在边界信息的指导下更精确地定位证据。在基准数据集上的表现表明,AT-BMC在分类和证据提取上都比基线有很大的优势。稳健性分析表明,提出的AT-BMC将攻击成功率有效降低了69%。这些结果表明,稳健的模型和更好的解释之间存在着联系。

5月26日 17:00-17:30

周满:

中国科学技术大学届博士生,主要研究方向为遥感图像处理,底层图像视觉,连续学习, 相关工作发表于CVPR, ICCV, NIPS, AAAI,TGRS 等权威会议和期刊。

分享内容:

基于Transformer和可

神经网络的全色多光谱锐化

报告简介:

在遥感卫星成像系统中,pan-sharpening 是指从高分辨率全色图像(PAN)及其对应的低分辨率多光谱图像 (MS) 中获取高分辨率多光谱图像的一项重要技术。由于卷积神经网络(CNN)强大的学习能力,基于CNN的方法在该领域占据主导地位。然而,由于卷积算子的局限性,无法捕捉长距离的的空间特征关系,从而限制了网络性能。为此,本文提出了一种新的、有效的方法,利用定制的多模态transformer结构和信息无损的可逆神经模块进行远程依赖建模和有效的特征融合。具体来说,定制的transformer将PAN和MS特征描述为queries 和 keys,以鼓励跨两种模态的联合特征学习,而设计的可逆神经模块实现了有效的特征融合,以生成预期的pan-sharpening结果。据我们所知,这是第一次尝试将transformer和可逆神经网络引入pan-sharpening领域。在不同类型的卫星数据集上进行的大量实验表明,我们的方法在视觉和数量上都优于最先进的算法。

直播结束后大家可以在群内进行提问,请添加“AI TIME小助手(微信号:AITIME_HY)”,回复“AAAI”,将拉您进“AAAI交流群”!

AI TIME微信小助手

主 办:AI TIME

合作媒体:AI 数据派

合作伙伴:智谱·AI、中国工程院知领直播、学堂在线、蔻享学术、AMiner、 Ever链动、科研云

往期精彩文章推荐

记得关注我们呀!每天都有新知识!

关于AI TIME

AI TIME源起于,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。

迄今为止,AI TIME已经邀请了600多位海内外讲者,举办了逾300场活动,超170万人次观看。

我知道你

在看

~

点击阅读原文预约直播!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。