论文阅读:Interventional Few-Shot Learning NIPS2020
不是说预训练模型越强越好,作者举了个例子,稍后讲。 Introduction 从常识上讲,预训练Ω越强,下游模... » 阅读全文
不是说预训练模型越强越好,作者举了个例子,稍后讲。 Introduction 从常识上讲,预训练Ω越强,下游模... » 阅读全文
谱聚类是一种很流行的方法,然而特征分解的代价非常昂贵,因为聚类结果都是图相关的,基于SC的池化方法对于每个新的... » 阅读全文
数据降维分成两个类别:一个是保留所有数据样本的成对的距离结构,另一个是在全局距离上的基础上保留局部距离。 PC... » 阅读全文
GFK论文:https://52zju.cn/?p=191621 《Kernel Manifold Align... » 阅读全文
提取domain无关的特征在无监督域适应中很重要。因为目标标签不可取,所以无法保证域无关的特征对于目标域中的实... » 阅读全文
这是一篇CVPR2012的论文。 introduction 在现实生活中,有很多因素很影响源域和目标域之间的差... » 阅读全文
域适应 分成普通的域适应和部分域适应 普通的预适应是sorce域和目标域的标签完全相同,主要的问题就是域迁移问... » 阅读全文
B类文章。 使用两个深度学习集成模型(CNN和resnet),作为独自的分类器和随机的子空间。 这里集成学习就... » 阅读全文
几何意义 任意的矩阵 M 都可以分解成三个矩阵。V 表示了原始域的标准正交基,u 表示经过 M 变换后的co-... » 阅读全文
标题中烤鱼看出,多分辨率的流形距离,对于不变的图像相似度。 论文考虑了图片可能有空间变换,因此使用变化不变的度... » 阅读全文
这是微软的一篇论文,解决transformer参数量大导致的次奥率问题。 Transformer模型在NLU上... » 阅读全文