云资讯

近年来,人脸解析因其潜在的应用价值而受到了越来越多的关注。论文《A New Dataset and Boundary-Attention Semantic Segmentat

京东云与AI 10 篇论文被AAAI 2020 收录,京东科技实力亮相世界舞台

来源:美国服务器 作者:服务器托管 浏览量:137 更新:2020-02-15

2月7-12日,AAAI 2020大会在纽约正式拉开序幕,AAAI作为全球人工智能领域的顶级学术会议,每年评审并收录来自全球最顶尖的学术论文,这些学术研究引领着技术的趋势和未来。京东云与AI在本次大会上有10篇论文被AAAI收录,涉及自然语言处理、计算机视觉、机器学习等领域,充分展现了京东用技术驱动公司成长的发展模式以及技术实力,技术创新和应用落地也成为这些论文最吸引行业关注的亮点。

本届会议共收到的有效论文投稿超过8800篇,其中7737 篇论文进入评审环节,最终录取数量为1591篇,录取率为20.6%。京东云与AI共有10篇论文入选AAAI 2020,研究领域涵盖人脸识别、人脸解析、机器阅读理解、文本生成、对抗样本与模型鲁棒性、智慧城市等前沿的技术研究领域,这些能力目前已在市政安防、实体零售、智能客服等业务场景下规模化落地,未来京东云与AI作为值得信赖的智能技术提供者,会持续进行技术与业务融合的探索,这些落地的技术能力也将迎来更加广阔的应用前景。

以下是京东云与AI此次入选10篇论文:

对抗样本与模型鲁棒性研究

1.基于Frank-Wolfe框架的高效对抗攻击算法

A Frank-Wolfe Framework for Efficient and Effective Adversarial Attacks

论文链接:https://arxiv.org/pdf/1811.10828.pdf;

根据模型攻击者可获取的信息量来区分,对抗样本攻击可分为白盒与黑盒两种攻击形式。虽然基于优化的攻击算法如PGD等可以在白盒攻击情况下获得较高的攻击成功率,但它们生成的对抗样本往往有着较高的失真度。此外,它们相应的黑盒攻击算法通常查询效率较差,需要对被攻击的黑盒模型访问非常多次才能实现攻击,从而大幅限制了它们的实用性。针对这一问题,京东、弗吉尼亚大学和加州大学洛杉矶分校合作提出了一种基于Frank-Wolfe框架的高效对抗攻击算法,可灵活运用于白盒和黑盒对抗样本攻击。

作者从理论上证明了所提的攻击算法具有快速的收敛速率,并在ImageNet和MNIST数据集上验证了所提出算法的性能。对比所有参评的白盒与黑盒攻击基准算法,本文提出的算法在攻击成功率,攻击时间和查询效率上均显著占优。

2.通过对抗样本评估序列到序列模型鲁棒性

Seq2Sick: Evaluating the Robustness of Sequence-to-Sequence Models with Adversarial Examples

论文链接:https://arxiv.org/pdf/1803.01128.pdf;

利用对抗样本攻击的难易度来评估深度神经网络的鲁棒性已成为业界常用的方法之一。然而,大多数现有的对抗攻击算法都集中在基于卷积神经网络的图像分类问题上,因为它的输入空间连续且输出空间有限,便于实现对抗样本攻击。在本文中,来自京东、加州大学洛杉矶分校和IBM研究院的研究者们探索了一个更加困难的问题,即如何攻击基于循环神经网络的序列到序列(Sequence to Sequence)模型。这一模型的输入是离散的文本字符串,而输出的可能取值则几乎是无穷的,因此难以设计对抗攻击方案,在本文之前也未被成功攻破过。为了解决离散输入空间带来的挑战,研究者们提出了结合group lasso和梯度正则化的投影梯度方法。针对近乎无限输出空间带来的问题,他们也设计了一些全新的损失函数来实现两种新的攻击方式:(1) 非重叠攻击,即保证模型被攻击后的输出语句与正常情况下的输出语句不存在任何重合,(2)目标关键词攻击,即给定任意一组关键词,保证模型被攻击后的输出语句包含这些关键词。

最终,研究者们将算法应用于序列到序列模型常用的两大任务机器翻译和文本摘要中,发现通过对输入文本做轻微的改动,即可以显著改变序列到序列模型的输出,成功实现了对抗样本攻击。同时,研究者们也指出,虽然攻击取得了成功,但与基于卷积神经网络的分类模型相比,序列到序列模型的对抗攻击难度更大,且对抗样本更容易被发现,因此从对抗攻击的角度进行衡量,序列到序列模型是一种鲁棒性更优的模型。

机器阅读理解

3.多跳多文档阅读理解研究

Select, Answer and Explain: Interpretable Multi-hop Reading Comprehension over Multiple Documents

论文链接:https://arxiv.org/pdf/1911.00484v2.pdf;

部分文章来源与网络,若有侵权请联系站长删除!