徐土豆
认证:优质创作者
所在专题目录 查看专题
MoCo 动量对比学习——一种维护超大负样本训练的框架
训练大规模对比学习的一些小笔记
图文搜索系统中的多模态模型:将MoCo应用在多模态对比学习上
Batch Norm层在大尺度对比学习中的过拟合现象及其统计参数信息泄露问题
hinge loss的一种实现方法
【论文极速读】MoCo v3: MoCo机制下Transformer模型的训练不稳定现象
作者动态 更多
【论文极速看】ERNIE-VIL 一种基于场景图解析的多模态表征方法
1星期前
语义标签(Semantic label)与多模态模型的一些关系
2星期前
BLIP2——采用Q-Former融合视觉语义与LLM能力的方法
3星期前
【论文极速看】ERNIE 3.0 通过用知识图谱加强的语言模型
11-03 13:47
工作一年时期的土豆总结——复杂度和困难度
10-22 14:24

【论文极速读】MoCo v3: MoCo机制下Transformer模型的训练不稳定现象

MoCo的基本原理,包括其历史来龙去脉在前文中[1,2,3]中已经介绍的比较充足了,本文就不再进行赘述。本文主要介绍下MoCo v3 [4]中的一些新发现。MoCo v3中并没有对模型或者MoCo机制进行改动,而是探索基于Transformer的ViT(Visual Transformer)模型[5,6]在MoCo机制下的表现以及一些训练经验。作者发现ViT在采用MoCo机制的训练过程中,很容易出现不稳定的情况,并且这个不稳定的现象受到了学习率,batch size和优化器的影响。如Fig 1.所示,在batch size大于4096的时候已经出现了明显的剧烈抖动,如Table 1.所示,我们发现在bs=2048时候取得了最好的测试性能,继续增大batch size反而有很大的负面影响,这个结论和MoCo v1里面『batch size越大,对比学习效果越好』相悖,如Fig 2.所示。这里面的大幅度训练抖动肯定是导致这个结论相悖的罪魁祸首。这个抖动并不容易发现,因为在bs=4096时候,模型训练最终能收敛到和bs=1024,2048相同的水平,但是泛化效果确实会存在差别。

Fig 1. ViT在MoCo训练过程中,不同batch size情况下的训练曲线,我们发现在大batch size情况下很容易出现稳定性问题。
Table 1. ViT在不同batch size下训练出的模型测试结果。

Fig 2. 在MoCo v1中,随着batch size的增大,对比学习的结果也逐渐变好。不仅仅是batch size,学习率也会导致ViT训练的不稳定,如Fig 3.所示,我们发现在较大的学习率下训练曲线存在明显的抖动,而最终的训练收敛位置却差别不大。在测试结果上看,则会受到很大的影响。如果将优化器从AdamW更换到LAMB优化器,那么结果也是类似的,如Fig 4.所示,只是可以采用更大的学习率进行训练了。

Fig 3. ViT以MoCo机制训练,在不同学习率下的训练曲线和对应测试结果。

Fig 4. ViT以MoCo机制训练,在采用LAMB优化器的情况下,不同学习率下的训练曲线和对应测试结果。这种出现训练时的剧烈抖动,很可能是梯度剧变导致的,因此作者对ViT的第一层和最后一层的梯度的无穷范数进行了统计。注意到无穷范数相当于求所有梯度值中绝对值的最大值,也即是如(1)所示。结果如图Fig 5.所示,我们发现的确会存在有梯度的骤变,而且总是第一层先发生,然后经过约数十个step之后传递给了最后一层。因此,导致训练曲线剧烈抖动的原因可能是ViT的Transformer的第一层梯度不稳定导致。

Fig 5. ViT在训练过程中第一层和最后一层的梯度无穷范数。

考虑到在ViT中的第一层是将patch映射到visual token,也就是一层FC全连接层,如图Fig6.所示。作者在MoCo v3里面的做法也很直接,直接将ViT的第一层,也即是从Patch到Visual Token的线性映射层随机初始化后固定住,不参与训练。

Fig 6. 在ViT中通过FC层将图片patch线性映射到了visual token,从而输入到Transformer。

这个做法挺奇怪的,但是实验结果表明在固定住了线性映射层之后,的确ViT的训练稳定多了,如Fig 7.所示,训练曲线的确不再出现诡异的剧烈抖动,最主要的是其测试结果也能随着学习率的提高而增大了,并且同比learned path proj.的情况还更高。

Fig 7. 在固定住了patch映射到visual token的线性映射层之后,训练曲线不再出现明显的剧烈抖动。

这种现象还是蛮奇怪的,也就是说即便不训练这个patch projection layer,模型的性能也不会打折,而且还会更加稳定。作者给出的解释就是目前这个映射是完备的(complete),甚至是过完备(over-complete)的,以的patch,768的visual token为例子,那么这个映射矩阵就是的。也就是说对于所有可能的patch来说,可能在随机的M \mathbf{M}M​​​​​中就已经有着近似的唯一输出对应,即便这个映射可能不保留太多的视觉语义信息,但是也保留了原始的视觉信息,不至于损失原始信息。但是正如作者最后所说的,这个『trick』只是缓解了问题,但是并没有解决问题,显然这个问题出现在了优化阶段,而固定FC层减少了解空间提高了其稳定性。在更大的学习率下,还是会受到相同的不稳定现象,对该现象的研究值得继续深究。

笔者在大规模的对比学习训练过程中也遇到过类似的训练曲线抖动(虽然没有那么剧烈),但是笔者发现可能是温度系数的剧烈变化导致的,我们以后再继续讨论下温度系数的影响。

Reference

[1]. https://fesian.blog.csdn.net/article/details/119515146

[2]. https://fesian.blog.csdn.net/article/details/120039316

[3]. https://fesian.blog.csdn.net/article/details/120364242

[4]. Chen, Xinlei, Saining Xie, and Kaiming He. “An empirical study of training self-supervised vision transformers.” arXiv preprint arXiv:2104.02057 (2021).

[5]. https://blog.csdn.net/LoseInVain/article/details/116031656

[6]. Dosovitskiy, Alexey, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani et al. “An image is worth 16x16 words: Transformers for image recognition at scale.” arXiv preprint arXiv:2010.11929 (2020).

声明:本内容为作者独立观点,不代表电子星球立场。未经允许不得转载。授权事宜与稿件投诉,请联系:editor@netbroad.com
觉得内容不错的朋友,别忘了一键三连哦!
赞 1
收藏 2
关注 51
成为作者 赚取收益
全部留言
0/200
成为第一个和作者交流的人吧