徐土豆
认证:优质创作者
所在专题目录 查看专题
数据,模型,算法共同决定深度学习模型效果
一文理解Ranking Loss/Contrastive Loss/Margin Loss/Triplet Loss/Hinge Loss
参数和非参数模型——当谈到参数我在说些什么?
在深度学习中,对于特征融合方式的思考——论pointwise addition和concatenate的异同
损失函数的可视化——浅论模型的参数空间与正则
曲线拟合问题与L2正则
作者动态 更多
【论文极速看】ERNIE-VIL 一种基于场景图解析的多模态表征方法
1星期前
语义标签(Semantic label)与多模态模型的一些关系
2星期前
BLIP2——采用Q-Former融合视觉语义与LLM能力的方法
3星期前
【论文极速看】ERNIE 3.0 通过用知识图谱加强的语言模型
11-03 13:47
工作一年时期的土豆总结——复杂度和困难度
10-22 14:24

在深度学习中,对于特征融合方式的思考——论pointwise addition和concatenate的异同

本文转自徐飞翔的“在深度学习中,对于特征融合方式的思考——论pointwise addition和concatenate的异同

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

Point-wise addition

逐个位相加,用数学表达为:现有特征向量, ,为了融合这两个特征向量,直接进行对应元素的相加,既是 , 。进行这个操作的前提当然是这两个向量的维度是相同的,如果是不同维度,则可以通过线性变换转换成同维向量,其中

Concatenate

向量拼接,则是一个更为通用的特征融合方法,数学表达为:现有特征向量 , ,将其在同一个阶[2]的进行拼接,有融合特征向量 。拼接完后,经常可以用线性映射,转换成 ,进行这一步的操作目的是能够和前者point-wise addition的进行同维度的比较。

两者关联与异同

前面介绍的两种操作,其实是有联系的,结论先抛出了,就是:的特殊形式,前者可以用学习的方式,用后者表示出来,用另一种说法就是,加了一定先验假设的结果。为什么这样说呢?我们先观察一种情况:

比较两种特征融合的方式,并且进行线性映射后的结果,有:

这个时候我们可以发现,通过学习过程中的自动参数调整,在的情况下,总是有办法表达成中的结果的,原因就是可以通过设置情形下的 的某些值相同,还是举原来的具体例子说明:

,此时只需要 ,就可以表达成和完全一样的结果,读者可以自行验证。

就结论而言,因为情况下参数量完全足以的,因此通过学习过程,完全是可以进行表达的,因此后者是前者的特殊形式,是添加了先验知识的特征融合方法。

那么,这个先验知识是什么呢?笔者认为因为是在相同维度的特征空间中进行的,相加代表特征向量的平移,因此这个先验知识可能是假设这两类特征具有相似性,比如模态比较接近,性质比较相同的特征。当然这个只是笔者猜测,并无文献参考,欢迎各位斧正,谢谢。

Update 2019/10/26:评论区有朋友问:

“point-wise addition 是 concatenate的特殊形式”的结果似乎只在均将融合后的特征线性映射成标量后才成立,但是这两种融合方法之后不一定要经过这种处理吧?而且,这种线性映射会减少大量信息,似乎不甚合理?

我觉得这个问题其实是不成立的,因为原文里面举的例子是映射成为标量只是为了举例方便而已,实际上,映射成其他高维矢量也是没问题的,比如说:在Pointwise addition的情况:

的情况中,我们有:

那么如果需要退化到的情况的话,我们的 可以为:

因为我们有八个未知量,而只有两个方程,因此这是个病态问题,其实我们有多组解的,不管怎么样,我们总是可以用concatenate去退化到addition的情况的,不管是映射到标量还是矢量。

Reference

[1]. Li K, Zou C, Bu S, et al. Multi-modal feature fusion for geographic image annotation[J]. Pattern Recognition, 2018, 73: 1-14.

[2]. https://blog.csdn.net/dcrmg/article/details/79017146

声明:本内容为作者独立观点,不代表电子星球立场。未经允许不得转载。授权事宜与稿件投诉,请联系:editor@netbroad.com
觉得内容不错的朋友,别忘了一键三连哦!
赞 5
收藏 6
关注 51
成为作者 赚取收益
全部留言
0/200
  • dy-J4n9lg5Q 2021-05-19 13:28
    比论文强一万倍
    回复