上保信息门户网
首页 旅游 军事 娱乐 财经 教育 综合 体育 社会 时事 汽车 文化 科技 国际 健康养生
银保监局放大招!中信、建信两大信托巨
惠州市委巡察“利剑”再出鞘!瞄准这1
三问奇瑞,捷途新序列和消费者究竟有何
欧元反弹已结束!空头重掌主权 很快将
青岛吃羊地图,一口羊汤下肚,脱掉毛衣
《炉石传说》苏宁狮王全球邀请赛开启报
区块链行业回归理性 各国加快布局抢滩
用心服务三春暖 天津银行北京分行“最
王鸥淡妆气场都两米,拿果茶冰脸好俏皮
辟谣|一吃上降压药就离不开了? (2020-01-11 17:28:03)
抄底过宋仲基、金秀贤的她,要用大数据 (2020-01-11 17:28:03)
马丁内斯重回穆古卢扎团队 去年温网曾 (2020-01-11 17:28:03)
​生到这样的女儿就是八辈子的福气!这 (2020-01-11 17:28:03)
蓝天白云与温暖过冬缺一不可 (2020-01-11 17:28:03)
长沙银行创最快开板记录背后:新股涨停 (2020-01-11 17:28:03)
易到一周内裁员数百人,被裁员工:易到 (2020-01-11 17:28:03)
穆帅:如果球队没了战斗到最后时刻的精 (2020-01-11 17:28:03)
曾是无线当红小生,遭雪藏后出演三级片 (2020-01-11 17:28:03)
亲民系的好选择上新了!全新远景正式上 (2020-01-11 17:28:03)
 
   
  您所在的位置:上保信息门户网>综合>myd12300cc|解读 | 2019年10篇计算机视觉精选论文(中)
 
   
 

myd12300cc|解读 | 2019年10篇计算机视觉精选论文(中)

发布日期:2020-01-11 17:28:03

myd12300cc|解读 | 2019年10篇计算机视觉精选论文(中)

myd12300cc,导读:2019 年转眼已经接近尾声,我们看到,这一年计算机视觉(cv)领域又诞生了大量出色的论文,提出了许多新颖的架构和方法,进一步提高了视觉系统的感知和生成能力。因此,我们精选了 2019 年十大 cv 研究论文,帮你了解该领域的最新趋势。

我们看到,近年来,计算机视觉(cv)系统已经逐渐成功地应用在医疗保健,安防、运输、零售、银行、农业等领域,也正在逐渐改变整个行业的面貌。

今年,cv 领域依然硕果累累,在各个顶尖会议中诞生了多篇优秀论文。我们从中精选了 10 篇论文以供大家参考、学习。限于篇幅,我们将解读分为了上、中、下三个篇章分期进行推送。

以下是这 10 篇论文的目录:

1.efficientnet: rethinking model scaling for convolutional neural networks

efficientnet:卷积神经网络模型缩放的反思

2.learning the depths of moving people by watching frozen people

通过观看静止的人来学习移动的人的深度

3.reinforced cross-modal matching and self-supervised imitation learning for vision-language navigation

增强的跨模态匹配和自我监督的模仿学习,用于视觉语言导航

4.a theory of fermat paths for non-line-of-sight shape reconstruction

非视线形状重构的费马路径理论

5.reasoning-rcnn: unifying adaptive global reasoning into large-scale object detection

reasoning-rcnn:将自适应全局推理统一到大规模目标检测中

6.fixing the train-test resolution discrepancy

修复训练测试分辨率差异

7.singan: learning a generative model from a single natural image

singan:从单个自然图像中学习生成模型

8.local aggregation for unsupervised learning of visual embeddings

视觉聚合的无监督学习的局部聚合

9.robust change captioning

强大的更改字幕

10.hype: a benchmark for human eye perceptual evaluation of generative models

hype:人类对生成模型的 eye 感知评估的基准

解读 | 2019 年 10 篇计算机视觉精选论文(上)

接下来,我们将从核心思想、关键成就、未来技术应用等方面,详细介绍第 4-7 篇论文,同时欢迎大家继续关注后续的内容推送。

非视线形状重构的费马路径理论

论文地址:http://1t.click/b49x

摘要

我们提出了一个新的理论,即在一个已知的可见场景和一个不在瞬态相机视线范围内的未知物体之间的 fermat path。这些光路要么遵守镜面反射,要么被物体的边界反射,从而编码隐藏物体的形状。

我们证明费马路径对应于瞬态测量中的不连续性。然后,我们推导出一种新的约束,它将这些不连续处的路径长度的空间导数与表面法线相关联。

基于这一理论,我们提出了一种名为 fermat flow 的算法,来估计非视距物体的形状。我们的方法首次允许复杂对象的精确形状恢复,范围从隐藏在拐角处以及隐藏在漫射器后面的漫反射到镜面反射。

最后,我们的方法与用于瞬态成像的特定技术无关。因此,我们展示了使用 spad 和超快激光从皮秒级瞬态恢复的毫米级形状,以及使用干涉测量法从飞秒级瞬态微米级重建。我们相信我们的工作是非视距成像技术的重大进步。

本文的核心思想

•现有的对隐藏物体进行轮廓分析的方法,取决于测量反射光子的强度,这需要假设朗伯反射和可靠的光电探测器。

•研究小组建议通过依靠费马原理施加的几何约束,来重构非视线形状:

费马路径对应于瞬态测量中的不连续性。

具体而言,可以将瞬态测量中的不连续性识别为有助于瞬态的费马路径的长度。

给定费马路径长度的集合,该过程将为 nlos 表面生成一个定向的点云。

关键成就

•从引入的理论推导出的费马流动算法,可以成功地重构出不依赖于特定瞬态成像技术的隐藏物体表面。

•费马路径理论适用于以下情形:

反射式 nlos(环角);

透射式 nlos(透过扩散器)。

本文在人工智能界的荣誉

该论文在计算机视觉和模式识别的顶尖会议 cvpr 2019 上获得了最佳论文奖。

未来的研究领域是什么?

•探索此处描述的几何方法与新介绍的用于对隐藏对象进行概要分析的反投影方法之间的联系。

•将几何和反投影方法结合起来用于其他相关应用,包括声学和超声成像,无透镜成像和地震成像。

有哪些可能的业务应用程序?

•摄像机或传感器可以「看到」超出其视野的增强的安全性。

•自动驾驶汽车可能会「看见」拐角处。

reasoning-rcnn:将自适应全局推理统一到大规模目标检测中

论文地址:http://1t.click/b46x

摘要

在本文中,我们解决了具有数千个类别的大规模对象检测问题,由于长尾数据分布,严重的遮挡和类别模糊性,这带来了严峻的挑战。然而,主要对象检测范式是通过在不考虑对象之间关键的语义依赖性的情况下,分别处理每个对象区域而受到限制的。

在这项工作中,我们引入了一种新颖的 reasoning-rcnn,通过利用各种人类常识知识,赋予所有检测网络在所有对象区域上自适应全局推理的能力。我们不只是直接在图像上传播视觉特征,而是在全球范围内发展所有类别的高级语义表示,以避免图像中分散注意力或不良的视觉特征。具体来说,基于基本检测网络的特征表示,提出的网络首先通过收集每个类别的先前分类层的权重,来生成全局语义池,然后通过参加全局语义池中的不同语义上下文,来自适应地增强每个对象的特征。

我们的自适应全局推理不是从嘈杂的所有可能的语义信息中传播信息,而是自动发现特征演变的大多数相对类别。我们的 reasoning-rcnn 轻巧灵活,足以增强任何检测主干网络,并且可扩展以集成任何知识资源。在对象检测基准上进行的可靠实验显示了我们的 reasoning-rcnn 的优势,例如,在 visualgenome 上实现了约 16% 的改进,在 map 方面实现了 ade 的 37% 的改进,在 coco 方面实现了 15% 的改进。

本文的核心思想

•大规模物体检测面临许多重大挑战,包括高度不平衡的物体类别,严重遮挡,类歧义,小尺寸物体等。

•为了克服这些挑战,研究人员引入了一种新颖的 reasoning-rcnn 网络,该网络可以对具有某些关系或相似属性的类别进行自适应全局推理:

首先,该模型通过收集先前分类层的权重,在大规模图像中的所有类别上生成全局语义池。

其次,按类别划分的知识图被设计为对语言知识(例如属性,共现,关系)进行编码。

第三,通过关注机制对当前图像进行编码,以自动发现每个对象最相关的类别。

第四,增强的类别通过软映射机制映射回区域,从而可以细化前一阶段不准确的分类结果。

第五,将每个区域的新增强功能与原始功能连接在一起,以端到端的方式增强分类和定位的性能。

关键成就

•reasoning-rcnn 优于当前的最新对象检测方法,包括 faster r-cnn,retinanet,relationnet 和 detnet。

•特别是,该模型在平均平均精度(map)方面实现了以下改进:

1000 个类别的 visualgenome 占 15%;

3000 个类别的 visualgenome 占16%;

ade 占 37%;

ms-coco 的 15%;

pascal voc 的 2%。

本文在人工智能界的荣誉

该论文在计算机视觉的顶尖会议 cvpr 2019 上被重点进行介绍。

未来的研究领域是什么?

•将 reasoning-rcnn 中使用的推理框架嵌入到其他任务中,包括实例级细分。

有哪些可能的业务应用程序?

•所提出的方法可以显着提高依赖于大规模对象检测(例如,城市街道上的威胁检测)的系统的性能。

在哪里可以获得实现代码?

•github 上提供了 reasoning-rcnn 的实现代码:

https://github.com/chanyn/reasoning-rcnn。

修复训练测试分辨率差异

论文地址:https://arxiv.org/pdf/1906.06423.pdf

摘要

数据扩充是训练神经网络进行图像分类的关键。本文首先显示,现有的增强会导致分类器在训练和测试时,看到的典型对象大小之间出现显著差异。我们通过实验验证,对于目标测试分辨率,使用较低的训练分辨率,可以在测试时提供更好的分类。

然后,我们提出了一种简单而有效的策略,以在训练分辨率和测试分辨率不同时优化分类器性能。它仅涉及在测试分辨率下计算机上廉价的网络微调。这样可以使用小型训练图像来训练强大的分类器。

例如,通过在 128×128 图像上训练的 resnet-50,在 imagenet 上获得 77.1% 的 top-1 精度,在 224×224 图像上训练出的 resnet-50 达到 79.8%。另外,如果我们使用额外的训练数据,则使用具有 224×224 图像的 resnet-50 train 可获得 82.5% 的效果。

相反,以 224×224 的分辨率对 9.4 亿张公共图像进行弱监督预训练的 resnext-101 32×48d 并进一步优化测试分辨率 320×320 时,我们获得的测试 top-1 准确性为 86.4% (前 5 名:98.0%)(单作)。据我们所知,这是迄今为止 imagenet 最高的单幅 top-1 和 top-5 精度。

本文的核心思想

•图像预处理程序在训练和测试时的差异会对图像分类器的性能产生不利影响:

为了增加训练数据,通常的做法是从图像(即分类区域或 roc)中提取具有随机坐标的矩形。

在测试时,从图像的中央部分提取 roc 。

这导致分类器在训练和测试时看到的对象大小之间存在显着差异。

•为了解决这个问题,研究人员建议在训练和测试时共同优化图像的分辨率和比例,分析表明:

在测试时增加图像作物的大小,可以补偿训练时随机选择 roc;

在训练中使用比测试时使用更低分辨率的农作物可以改善模型的性能。

•因此,facebook ai 团队建议保持相同的 roc 采样,并且仅微调网络的两个层以补偿作物大小的变化。

关键成就

•通过获取以下内容来提高 resnet-50 模型在 imagenet 上进行图像分类的性能:

在 128×128 图像上训练时,top-1 精度为 77.1%;

在 224×224 图像上训练时,top-1 精度为 79.8%;

在带有额外训练数据的 224×224 图像上进行训练时,top-1 精度为 82.5%。

•使 resnext-101 32×48d 在 9.4 亿张公共图像上以 224×224 图像的分辨率进行预训练,从而在 imagenet 上进行图像分类的新技术:

top-1 准确性为 86.4%;

top-5 准确性为 98.0%。

有哪些可能的业务应用程序?

•建议的方法可以提高用于大型数据库中自动图像组织,股票网站上的图像分类,可视产品搜索等的 ai 系统的性能。

在哪里可以获得实现代码?

•作者提供了引入的方法的官方 pytorch 实现,以解决训练测试分辨率的差异。

github 地址:

https://github.com/facebookresearch/fixres

singan:从单个自然图像中学习生成模型

论文地址:https://arxiv.org/pdf/1905.01164.pdf

摘要

我们介绍了 singan,一个可以从单个自然图像中学习的无条件生成模型。我们的模型经过训练,可以捕获图像内斑块的内部分布,然后能够生成高质量,多样的样本,并承载与图像相同的视觉内容。singan 包含一个完全卷积的 gan 金字塔,每个 gan 负责学习图像不同比例的 patch 分布。这样就可以生成具有任意大小和纵横比的新样本,这些样本具有明显的可变性,同时又可以保持训练图像的整体结构和精细纹理。

与以前的单图像 gan 方案相比,我们的方法不仅限于纹理图像,而且不是有条件的(即从噪声中生成样本)。通过用户的研究证实了,生成的样本通常被混淆为真实图像。我们将说明 singan 在各种图像处理任务中的实用性。

本文的核心思想

•为了从单个图像中学习无条件生成模型,研究人员建议使用单个图像的补丁作为训练样本,而不是像常规 gan 设置中的整个图像样本。

•该 singan 生成框架:

由补丁 gan 的层次结构组成,每个 gan 负责捕获补丁在不同规模上的分布(例如,某些 gan 了解全局属性和大对象的形状,例如「顶部的天空」和「底部的地面」,以及其他 gan 可以学习精细的细节和纹理信息);

不仅可以生成纹理,还可以处理一般的自然图像;

允许生成任意大小和纵横比的图像;

通过选择在测试时间开始生成的标度,可以控制生成的样本的可变性。

关键成就

•实验证明 singan:

可以生成描述新的现实结构和对象配置的图像,同时保留训练图像的内容;

成功保留全局图像属性和精细细节;

可以现实地合成反射和阴影;

生成难以与真实样本区分开的样本。

本文在人工智能界的荣誉

•该论文获得了计算机视觉领域的顶尖会议 iccv 2019 最佳论文奖。

有哪些可能的业务应用程序?

•singan 模型可以协助完成许多图像处理任务,包括图像编辑,超分辨率,协调,从绘画生成图像以及从单个图像创建动画。

在哪里可以获得实现代码?

•github 上提供了 singan 的 pytorch 官方实现:

https://github.com/tamarott/singan。

参考资料:

https://www.topbots.com/top-ai-vision-research-papers-2019/

(*本文为ai科技大本营转载文章,转载请联系原作者)

上一篇:大江东的格力电器工厂建得怎样了?
下一篇:中国研发全球最快无人机 每小时能飞6000公里(图)

Copyright 2018-2019 hpipaq.com
上保信息门户网 Inc. All Rights Reserved.