Is Attention All My Need ?
注意力机制在图神经网络中扮演着越来越重要的角色。但鼠鼠现在连正常的 Attention 有哪些都不清楚捏本文鼠鼠将从一般的 Attention 出发,给出 Attention 的总体结构,然后按分类介绍现有的主要的 Attention
本文主要来自于一篇论文,基本可以看作那篇论文的阅读笔记
🎯 引言
在深度学习领域,注意力机制已经成为一个革命性的创新,特别是在处理序列数据和图像数据方面取得了巨大成功。而在图神经网络中,注意力机制的引入不仅提高了模型的表现力,还增强了模型的可解释性。
在图结构数据中应用注意力机制主要有以下优势:
- 自适应性:能够根据任务动态调整不同邻居节点的重要性
- 可解释性:通过注意力权重可以直观理解模型的决策过程
- 长程依赖:有效缓解了传统 GNN 中的过平滑问题
- 异质性处理:更好地处理异质图中的不同类型节点和边
📚 总览 Attention
本章节主要参考了论文📄 Brauwers 和 Frasincar - 2023 - A General Survey on Attention Mechanisms in Deep Learning有兴趣的话可以看看原文捏