論文の概要: Cross-Modal Transformer GAN: A Brain Structure-Function Deep Fusing
Framework for Alzheimer's Disease
- arxiv url: http://arxiv.org/abs/2206.13393v1
- Date: Mon, 20 Jun 2022 11:38:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 01:21:51.522725
- Title: Cross-Modal Transformer GAN: A Brain Structure-Function Deep Fusing
Framework for Alzheimer's Disease
- Title(参考訳): 交叉型トランスフォーマーGAN : アルツハイマー病に対する脳構造制御型深部Fusing Framework
- Authors: Junren Pan, Shuqiang Wang
- Abstract要約: 異なる種類の神経画像データの相互融合は、アルツハイマー病(AD)の進行を予測する大きな可能性を示している
本研究では, 静止機能型磁気共鳴画像(rs-fMRI)に含まれる機能情報と拡散イメージング(DTI)に含まれる構造情報を融合するために, クロスモーダルトランスフォーマ生成逆数ネットワーク(CT-GAN)を提案する。
提案モデルでは,分類性能の向上だけでなく,AD関連脳の接続性も効果的に検出できる。
- 参考スコア(独自算出の注目度): 5.608783790624866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-modal fusion of different types of neuroimaging data has shown great
promise for predicting the progression of Alzheimer's Disease(AD). However,
most existing methods applied in neuroimaging can not efficiently fuse the
functional and structural information from multi-modal neuroimages. In this
work, a novel cross-modal transformer generative adversarial network(CT-GAN) is
proposed to fuse functional information contained in resting-state functional
magnetic resonance imaging (rs-fMRI) and structural information contained in
Diffusion Tensor Imaging (DTI). The developed bi-attention mechanism can match
functional information to structural information efficiently and maximize the
capability of extracting complementary information from rs-fMRI and DTI. By
capturing the deep complementary information between structural features and
functional features, the proposed CT-GAN can detect the AD-related brain
connectivity, which could be used as a bio-marker of AD. Experimental results
show that the proposed model can not only improve classification performance
but also detect the AD-related brain connectivity effectively.
- Abstract(参考訳): 異なる種類の神経画像データの相互融合は、アルツハイマー病(AD)の進行を予測する大きな可能性を示している。
しかし、ニューロイメージングに応用されている既存の手法のほとんどは、マルチモーダルニューロ画像から機能的および構造的情報を効率的に融合することができない。
本研究では, 静止状態機能型磁気共鳴画像 (rs-fmri) に含まれる機能情報と拡散テンソル画像 (dti) に含まれる構造情報を融合する新しいクロスモーダルトランスフォーマタ生成逆ネットワーク (ct-gan) を提案する。
本発明のバイアテンション機構は,機能情報と構造情報とを効率的にマッチングし,RS-fMRIおよびDTIから補完情報を抽出する能力を最大化することができる。
構造的特徴と機能的特徴の間の深い相補的情報を捉えることにより,提案するct-ganは,adの生体マーカーとして使用できるad関連脳結合を検出することができる。
実験の結果,提案モデルは分類性能を向上させるだけでなく,広告関連脳結合を効果的に検出できることがわかった。
関連論文リスト
- Unlocking Potential Binders: Multimodal Pretraining DEL-Fusion for Denoising DNA-Encoded Libraries [51.72836644350993]
マルチモーダルプレトレーニング DEL-Fusion Model (MPDF)
我々は,異なる複合表現とそれらのテキスト記述の対比対象を適用した事前学習タスクを開発する。
本稿では, 原子, 分子, 分子レベルでの複合情報をアマルガメートする新しいDEL融合フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-07T17:32:21Z) - Interpretable Spatio-Temporal Embedding for Brain Structural-Effective Network with Ordinary Differential Equation [56.34634121544929]
本研究では,まず動的因果モデルを用いて脳効果ネットワークを構築する。
次に、STE-ODE(Spatio-Temporal Embedding ODE)と呼ばれる解釈可能なグラフ学習フレームワークを導入する。
このフレームワークは、構造的および効果的なネットワーク間の動的相互作用を捉えることを目的とした、特異的に設計されたノード埋め込み層を含んでいる。
論文 参考訳(メタデータ) (2024-05-21T20:37:07Z) - fMRI-PTE: A Large-scale fMRI Pretrained Transformer Encoder for
Multi-Subject Brain Activity Decoding [54.17776744076334]
本稿では,fMRI事前学習のための革新的オートエンコーダであるfMRI-PTEを提案する。
我々のアプローチでは、fMRI信号を統合された2次元表現に変換し、次元の整合性を確保し、脳の活動パターンを保存する。
コントリビューションには、fMRI-PTEの導入、革新的なデータ変換、効率的なトレーニング、新しい学習戦略、そして我々のアプローチの普遍的な適用性が含まれる。
論文 参考訳(メタデータ) (2023-11-01T07:24:22Z) - Alzheimer's Disease Prediction via Brain Structural-Functional Deep
Fusing Network [5.945843237682432]
機能的および構造的情報を融合するために, クロスモーダルトランスフォーマー生成対向ネットワーク (CT-GAN) を提案する。
生成した接続特性を解析することにより,AD関連脳の接続を同定することができる。
パブリックADNIデータセットの評価から,提案したCT-GANは予測性能を劇的に向上し,AD関連脳領域を効果的に検出できることが示された。
論文 参考訳(メタデータ) (2023-09-28T07:06:42Z) - DiffGAN-F2S: Symmetric and Efficient Denoising Diffusion GANs for
Structural Connectivity Prediction from Brain fMRI [15.40111168345568]
構造接続(SC)と機能的磁気共鳴イメージング(fMRI)の信頼性非直線マッピング関係を橋渡しすることは困難である
脳のfMRIからエンド・ツー・エンド・エンドの方法でSCを予測するために,新しい拡散生成逆ネットワークを用いたfMRI-to-SCモデルを提案する。
論文 参考訳(メタデータ) (2023-09-28T06:55:50Z) - Fusing Structural and Functional Connectivities using Disentangled VAE
for Detecting MCI [9.916963496386089]
階層型構造機能接続ファジング(HSCF)モデルを提案し,脳構造機能接続行列を構築した。
公的なアルツハイマー病神経画像イニシアチブデータベース上で行われた幅広いテストの結果、提案モデルは競合するアプローチよりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-06-16T05:22:25Z) - Brain Structure-Function Fusing Representation Learning using
Adversarial Decomposed-VAE for Analyzing MCI [17.757114703434027]
fMRI画像から融合表現を学習するために,新しい脳構造関数Fusing-Representation Learning (BSFL)モデルを提案する。
提案モデルは,軽度認知障害(MCI)の予測と解析において,他の競合手法よりも優れた性能を実現する。
このモデルは、統合された脳ネットワークを再構築し、MCIの変性過程中に異常な接続を予測するための潜在的なツールとなるかもしれない。
論文 参考訳(メタデータ) (2023-05-23T11:19:02Z) - Hierarchical Graph Convolutional Network Built by Multiscale Atlases for
Brain Disorder Diagnosis Using Functional Connectivity [48.75665245214903]
本稿では,脳疾患診断のためのマルチスケールFCN解析を行うための新しいフレームワークを提案する。
まず、マルチスケールFCNを計算するために、明確に定義されたマルチスケールアトラスのセットを用いる。
そこで我々は, 生物的に有意な脳階層的関係を多スケールアトラスの領域で利用し, 結節プールを行う。
論文 参考訳(メタデータ) (2022-09-22T04:17:57Z) - Functional2Structural: Cross-Modality Brain Networks Representation
Learning [55.24969686433101]
脳ネットワーク上のグラフマイニングは、臨床表現型および神経変性疾患のための新しいバイオマーカーの発見を促進する可能性がある。
本稿では,Deep Signed Brain Networks (DSBN) と呼ばれる新しいグラフ学習フレームワークを提案する。
臨床表現型および神経変性疾患予測の枠組みを,2つの独立した公開データセットを用いて検証した。
論文 参考訳(メタデータ) (2022-05-06T03:45:36Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Characterization Multimodal Connectivity of Brain Network by Hypergraph
GAN for Alzheimer's Disease Analysis [30.99183477161096]
脳ネットワークを特徴付けるマルチモーダル・ニューロイメージングデータは、現在、アルツハイマー病(AD)解析の高度な技術である。
DTI と rs-fMRI の組合せから脳ネットワークのマルチモーダル接続を生成するための新しいハイパーグラフ生成支援ネットワーク (HGGAN) を提案する。
論文 参考訳(メタデータ) (2021-07-21T09:02:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。