内容纲要

一篇ARXIV的论文,引用量还挺高。现在17了。(看完发现文章比较水,不过有借鉴意义。)
开源:https://github.com/mileyan/simple_shot

摘要

这篇论文研究了不使用meta-learning最邻近的baseline准确度。例如,我们发现,使用mean-subtraction的L2正则表现最出色。

introduction

我们发现,应用简单的特征变换,再NN分类器前,会导致更有竞争力的结果。例如,我们发现使用densenet特征,减去均值和L2正则化会表现出先。我们将这称作simpleshot。

Nearest Neighbors forF ew-ShotLearning

训练阶段:定义一个线性分类器W。其中L为交叉熵损失,使用SGD联合训练W和f
file
一旦特征提取网络被训练好,定义图像特征x。在这个空间内,我们使用最邻近分类器即距离相似度。
file

feature transformation

一些特征变换操作,可以提升性能

  1. centering。首先计算base类的均值file,然后对于一个特征向量来说,减去它file均值操作对欧式距离没有帮助,但是借助L2归一化的话是有帮助的。
  2. L2归一化。很简单,就是归一化file

结果

file

疑问

它求均值时,是将base类求个均值?base类的所有样本???然后拿新颖类的support集合减去这个东西???
有点迷惑。看代码,有人提问过相似的问题: https://github.com/mileyan/simple_shot/issues/1
看了一圈代码,不知道dataloader怎么一个过程emmm

最后修改日期:2020年10月10日

作者

留言

撰写回覆或留言

发布留言必须填写的电子邮件地址不会公开。