内容纲要

尽管SSL在无标签数据上很有用,但是在少样本领域上研究不多。我们发现,SSL可以减少相对错误比率4%-27%,甚至当数据集很小,只有利用当前数据集中的图片。尽管SSL可以增大训练集合,但是我们发现,SSL可能会降低表现,当FSL中图像的分布不同时。我们进行了一个系统的研究,通过不同domain shift,分析一些meta-learners的表现。通过这个实验,我们展示了一个技术:可以自动选择图片用来SSL,从一个大的通用的无标签的图片,对于给定的数据集,可以提升进一步的帮助。

Introduction

少样本学习大多数都是在学习base类中的有区分度的信息,而在这个过程中,它可能会丢失与base类无关的但是和novel类有关的信息。尤其是当bas数据集很小或者类别差距很大时。
一个恢复这些有效的语义信息的方法时利用表征学习技术,而不是使用类别标签,也即是无监督或者自监督的学习。关键的idea是学习一个策略的正则化。例如patches中的空间关系或者它的方向,这些可能是语义的线索。但是在FSL领域中的应用却不清楚。比如,这些技术能否防止base类的过拟合和提升novel类中的表现。如果是这样,这种益处是否会在不同领域和更具挑战性的任务中普遍存在?在连未标记的图像都很难获得的领域中,自我监督能提高性能吗?
本文尝试解决这些问题。
我们发现,不适用额外的训练数据,把自监督任务作为一个附加任务,可以提高表现能力,和最近的研究有着相似的结论。有趣的是,我们发现自监督的收益随着任务的难度增加而增加。例如,当从较小的base数据集进行训练时,或使用降级输入(例如低分辨率或灰度图像)进行训练时。
一个可能的推测,传统的SSL使用额外的无标签图像可能会提升表现性能,但是对于novel类来说什么样的无标图像我们应该使用。为此,我们进行了一系列实验,使用额外的无标签数据从不同域。发现,增加更多的无标签图像会提升性能,只有当用于自监督的图像和base class属于同一个domainn时。否则,它甚至会有副作用。基于此分析,我们展示了一种简单的approach,使用域分类器来选择相似的域中的无标签数据,从一个大型和通用的图片池中。

Methods

file
损失函数:
file
f事backbone,g是分类器。图1显示了两个示例:拼图任务重新排列输入图像,并使用排列的索引作为目标标签,而旋转任务使用旋转图像的角度作为目标标签。额外的函数h用来预测这些标签,使用共享的backbonef,自监督损失:
file

最后修改日期: 2020年10月22日

作者

留言

撰写回覆或留言

发布留言必须填写的电子邮件地址不会公开。