[论文精读]Community-Aware Transformer for Autism Prediction in fMRI Connectome

论文网址:[2307.10181] Community-Aware Transformer for Autism Prediction in fMRI Connectome (arxiv.org)

论文代码:GitHub - ubc-tea/Com-BrainTF: The official Pytorch implementation of paper "Community-Aware Transformer for Autism Prediction in fMRI Connectome" accepted by MICCAI 2023

英文是纯手打的!论文原文的summarizing and paraphrasing。可能会出现难以避免的拼写错误和语法错误,若有发现欢迎评论指正!文章偏向于笔记,谨慎食用!

1. 省流版

1.1. 心得

(1)我超,开篇自闭症是lifelong疾病。搜了搜是真的啊,玉玉可以治愈但是自闭症不太行,为啥,太神奇了。我还没有见过自闭症的

1.2. 论文总结图

2. 论文逐段精读

2.1. Abstract

        ①Treating each ROI equally will overlook the social relationships between them. Thus, the authors put forward Com-BrainTF model to learn local and global presentations

        ②They share the parameters between different communities but provide specific token for each community

2.2. Introduction

        ①ASD patients perform abnormal in default mode network (DMN) and are influenced by the significant change of dorsal attention network (DAN) and DMN

        ②Com-BrainTF contains a hierarchical transformer to learn community embedding and a local transformer to aggregate the whole information of brain

        ③Sharing the local transformer parameters can avoid over-parameterization

2.3. Method

2.3.1. Overview

(1)Problem Definition

        ①They adopt Pearson correlation coefficients methods to obrain functional connectivity matrices

        ②Then divide N ROIs to K communities \{X_{1},X_{2},\ldots,X_{K}\},X_k\in\mathbb{R}^{N_k\times N}

        ③The learned embedding H=[H_{1},\ldots,H_{k}],H_k\in\mathbb{R}^{N_k\times N}\mapsto Z_{L}\in\mathbb{R}^{N\times N}

        ④Next, the following pooling layer and MPLs predict the labels

(2)Overview of our Pipeline

        ①They provide a local transformer, a global transformer and a pooling layer in their local-global transformer architecture

        ②The overall framework

2.3.2. Local-global transformer encoder

        ①With the input FC, the learned node feature matrix H_i can be calculated by H_i=(\|_{m=1}^Mh^m)W_O

        ②In transformer encoder module,

h^m=\text{softmax}\bigg(\frac{Q^m(K^m)^T}{\sqrt{d_k^m}}\bigg)V^m

where Q^{m}=W_{Q}X_{i}^{\prime},K^{m}=W_{K}X_{i}^{\prime},V^{m}=W_{V}X_{i}^{\prime},X_{i}^{\prime}=[p_{i},X_{i}],

M is the number of heads

(1)Local Transformer

        ①They apply same local transformer for all the input, but use unique learnable tokens \{p_1,p_2,...,p_k\},p_i\in\mathbb{R}^{1\times N}:

p_i',H_i=\text{LocalTransformer}([p_i,X_i])\text{where},i\in[1,2...K]

(2)Global Transformer

        ①The global operation is:

p_{global}=\text{MLP (Concat }(p_1^{'},p_2^{'}\ldots p_K^{'}))

H_{global}=\text{Concat}(H_1,H_2,\ldots,H_K)

p^{'},Z_L=\text{GlobalTransformer}([p_{global},H_{global}])

2.3.3. Graph Readout Layer

        ①They aggregate node embedding by OCRead.

        ②The graph level embedding Z_G is calculated by Z_{G}=A^{\top}Z^{L}, where A\in\mathbb{R}^{K\times N} is a learnable assignment matrix computed by OCRead layer

        ③Afterwards, flattening Z_G and put it in MLP for final prediction

        ④Loss: CrossEntropy (CE) loss

2.4. Experiments

2.4.1. Datasets and Experimental Settings

(1)ABIDE

(2)Experimental Settings

2.4.2. Quantitative and Qualitative Results

2.4.3. Ablation studies

(1)Input: node features vs. class tokens of local transformers

(2)Output: Cross Entropy loss on the learned node features vs. prompt token

2.5. Conclusion

2.6. Supplementary Materials

2.6.1. Variations on the Number of Prompts

2.6.2. Attention Scores of ASD vs. HC in Comparison between Com-BrainTF (ours) and BNT (baseline)

2.6.3. Decoded Functional Group Differences of ASD vs. HC

3. 知识补充

4. Reference List

Bannadabhavi A. et al. (2023) 'Community-Aware Transformer for Autism Prediction in fMRI Connectome', 26th International Conference on Medical Image Computing and Computer Assisted Intervention (MICCAI 2023), doi: https://doi.org/10.48550/arXiv.2307.10181

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/464473.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

本地部署Stable Diffusion WebUI

官网 Stable Diffusion在线 Github上的Stable Diffusion WebUI 提醒一下:下面实例讲解是在Mac系统演示的; 一、 环境所需资源 PythonPycharmAnacondastable-diffusion-webui项目代码 注意事项 python版本一定要3.10,最好是3.10.6版本的。…

windows 查看磁盘空间 treesizefree

https://downloads.jam-software.de/treesize_free/TreeSizeFreeSetup.exe

【Linux】Linux下的基本指令

Linux下的基本指令 Linux 的操作特点:纯命令行ls 指令文件 pwd命令Linux的目录结构绝对路径 / 相对路径,我该怎么选择? cd指令touch指令mkdir指令(重要)rmdir指令rm 指令(重要)man指令&#xff…

HTML 标签

HTML:超文本标记语言 HTML骨架结构: html标签:网页的整体 head标签:网页的头部 body标签:网页的身体 HTML的注释 VS code中:ctrl/ 浏览器不会执行注释 HTML标签的构成: 双标签&#xff1a…

【算法与数据结构】496、503、LeetCode下一个更大元素I II

文章目录 一、496、下一个更大元素 I二、503、下一个更大元素II三、完整代码 所有的LeetCode题解索引,可以看这篇文章——【算法和数据结构】LeetCode题解。 一、496、下一个更大元素 I 思路分析:本题思路和【算法与数据结构】739、LeetCode每日温度类似…

【数据结构与算法】【小白也能学的数据结构与算法】迭代算法专题

🎉🎉欢迎光临🎉🎉 🏅我是苏泽,一位对技术充满热情的探索者和分享者。🚀🚀 🌟特别推荐给大家我的最新专栏《数据结构与算法:初学者入门指南》📘&am…

InternLM大模型实战-3.InternLM+Langchain搭建知识库

文章目录 前言笔记正文大模型开发范式RAGFinetune LangChain简介构建向量数据库搭建知识库助手1 InternLMLangchain2 构建检索问答链3 优化建议 Web Demo 部署搭建知识库 前言 本文是对于InternLM全链路开源体系系列课程的学习笔记。【基于 InternLM 和 LangChain 搭建你的知识…

SpringCloud-高级篇(十九)

我们已经学过使用 SpringAMQP去收和发消息,但是发和收消息是只是MQ最基本的功能了,在收发消息的过程中,会有很多的问题需要去解决,下面需要学习rabbitMQ的高级特性去解决 死信交换机:这个可以帮助我们实现消息的延迟的…

云计算运维 · 第三阶段 · 代码上线案例

学习b记 第三阶段 持续集成案例 这一章做一个小的案例,git、gitlab、jenkins、sonarqube、maven、shell把这周学的一整个流程串联起来做一个完整的代码发布流程案例,这一部分东西比较多,相对于之前的笔记这个会做的仔细一点。#嘿嘿回家就是…

AI大模型学习笔记之四:生成式人工智能(AIGC)是如何工作的?

OpenAI 发布 ChatGPT 已经1年多了,生成式人工智能(AIGC)也已经广为人知,我们常常津津乐道于 ChatGPT 和 Claude 这样的人工智能系统能够神奇地生成文本与我们对话,并且能够记忆上下文情境。 Midjunery和DALLE 这样的AI…

ERROR: Could not build wheels for roslz4

Python bugs 最近在安装python的rosbag包时出现了诸多问题,特别记录下。 python版本:3.11 系统版本:Windows10 x86_64 使用conda虚拟环境进行包管理。 运行命令 pip3 install roslz4 --extra-index-url https://rospypi.github.io/simple…

奇异值分解(SVD)的应用——图像压缩

SVD方法是模型降阶的一类重要方法,本征正交分解(POD)和平衡截断(BT)都属于SVD类方法。 要想深入了解模型降阶技术,我们可以先从SVD的应用入手,做一个直观的了解。 1. SVD的定义和分类 我们想寻找…