CDR models In 2023
2023年的CDR模型
想看2020到2022的可以前往CDR models From 2020 To 2022
本文将介绍的是2023年的CDR模型,总的来说23年的模型在之前的基础上变得更复杂了,但感觉和鼠鼠想要的创新还有一些小距离捏(主要是一连看到好多篇拼好模捏)
2023
GraTransDRP
这应该是第一次将Graph Transformer引入CDR中吧应该吧。
关于Graph Transformer,鼠鼠专门写过一篇博客Trans?!and Former?!。像了解的可以去看一下捏
Framework
这个架构图让鼠鼠想到一位故人(GraOmicDRP)捏,一看果然是一个团队做的捏,该说不说,这里就直接把两个架构图放在一起捏dddd
数据集
经典出装(CCLE和GDSC)
MMCL CDR
这玩意儿引入了形态学图像并将其用于与之前的组学数据进行对比学习,鼠鼠并不喜欢先验知识,但鼠鼠现在想知道另一件事(过两天会进行实验,到时候补充):是否可以直接在组学内部经行对比学习以提高一些东西呢?
鼠鼠现在设想的改造如下:
- 将形态学图像改成另一组组学信息
- 改造对比学习公式使其可以对三个组学进行对比学习,所作的修改类似于从二元交叉熵到多元交叉熵
Framework
数据集
GDSC、PubChem、DMSZ
SubCDR
这里主要是将药物做成官能团序列一样的东西用于训练
Framework
数据集
GDSC和CCLE
HMM GDAN
多的不说少的不唠,这其实是鼠鼠看的第一篇Multi-view Attention的论文,之前有过一篇(但感觉只是形式上的)
Framework
这里给出其multi-view的具体构造过程:
1. 多视图图构建
输入数据
- 多组学数据:构成三维张量
$$
C \in \mathbb{R}^{N_{cl} \times N_g \times (K-1)}
$$- $N_{cl}$: 细胞系数量
- $N_g$: 癌症相关基因数量
- $K-1$: 组学类型数
构建步骤
节点特征生成
细胞系$i$的基因特征矩阵:
$$
X_c^i = C(i, :, :) \in \mathbb{R}^{N_g \times (K-1)}
$$邻接矩阵生成
组学视图($v=1,…,K-1$):
$$
\rho_{ij}^{(v)} = \frac{\sum_{q=1}^{N_g} (Y_{i,q}^{(v)} - \bar{Y}_i^{(v)})(Y_{j,q}^{(v)} - \bar{Y}_j^{(v)})}{\sqrt{\sum_{q=1}^{N_g} (Y_{i,q}^{(v)} - \bar{Y}_i^{(v)})^2}\sqrt{\sum_{q=1}^{N_g} (Y_{j,q}^{(v)} - \bar{Y}_j^{(v)})^2}}
$$阈值化:
$$
E_{ij}^{(v)} = \begin{cases}
1 & \text{if } |\rho_{ij}^{(v)}| > \tau^{(v)} \
0 & \text{otherwise}
\end{cases}
$$STRING视图($v=K$):
$$
E_{ij}^{(K)} = \begin{cases}
1 & \text{if } s_{ij}^{(K)} > \tau^{(K)} \
0 & \text{otherwise}
\end{cases}
$$
最终图结构
$$
\mathcal{G}_c = \langle V, { E^{(v)} }_{v=1}^K \rangle
$$
2. 双注意力机制
多视图自注意力
共享参数投影:
$$
\Theta = [H^{(1)}\theta, …, H^{(K)}\theta] \in \mathbb{R}^{N_g \times K}
$$相似度计算:
$$
\bar{\alpha}_{ij} = \text{LeakyReLU}\left( \frac{\langle \Theta_i, \Theta_j \rangle}{|\Theta_i|_2 |\Theta_j|_2}, \beta \right)
$$注意力系数:
$$
\alpha_{ij} = \frac{\exp(\bar{\alpha}_{ij})}{\sum_{j=1}^K \exp(\bar{\alpha}_{ij})}
$$视图表示更新:
$$
H_s^{(v)} = \sum_{j=1}^K \alpha_{vj} H^{(j)}
$$
视图级注意力
表示拼接:
$$
H_s = [H_s^{(1)}, …, H_s^{(K)}] \in \mathbb{R}^{N_g \times K d_c}
$$视图权重计算:
$$
\bar{w}^{(v)} = \text{Avg}(H_s z^{(v)} + b)
$$归一化权重:
$$
w^{(v)} = \frac{\exp(\bar{w}^{(v)})}{\sum_{v=1}^K \exp(\bar{w}^{(v)})}
$$最终融合:
$$
H = \sum_{v=1}^K w^{(v)} H_s^{(v)}
$$
此外,其还引入了multi-scale学习(比较简单,可以直接去看原文捏)
Emden
这感觉没什么有用的信息捏
Framework
AutoCDPR
采用了类似于AutoML的方式,但对鼠鼠而言,这东西就像将之前应该是超参数的东西也加入了训练,但实际用到CDR的部分只占很小一点(是不是有点舍本逐末了捏)
Framework
数据集
GDSC和CCLE外加PubChem
TSGCNN
由于之后有比这个玩意儿更加激进的RedCDR,所以这里只放一个架构图捏
📄 Rajendran和Sivannarayna - Multi Head Graph Attention for Drug Response Predicton
从各个方面来讲都过于《淳朴》了捏,略过
HQNN
将其他模型最后的FCN换成了一个QNN
GADRP
没什么特别的捏
GPDRP
这位更是如此捏
📚 𝒥𝑒𝒻𝑒𝓇𝑒𝓃𝒸𝑒
📄 Chu 等 - Graph Transformer for Drug Response Prediction
📄 Peng - 2023 - Improving drug response prediction based on two-space graph convolution
📄 Rajendran和Sivannarayna - Multi Head Graph Attention for Drug Response Predicton
📄 Sagingalieva 等 - Hybrid Quantum Neural Network For Drug Response Prediction
📄 Wang 等 - GADRP graph convolutional networks and autoencoders for cancer drug response prediction
📄 Yang - 2023 - GPDRP a multimodal framework for drug response prediction with graph transformer