論文の概要: Cross-Modal Synthesis of Structural MRI and Functional Connectivity
Networks via Conditional ViT-GANs
- arxiv url: http://arxiv.org/abs/2309.08160v1
- Date: Fri, 15 Sep 2023 05:03:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 15:52:41.757882
- Title: Cross-Modal Synthesis of Structural MRI and Functional Connectivity
Networks via Conditional ViT-GANs
- Title(参考訳): 条件付きVT-GANを用いた構造MRIと機能接続ネットワークのクロスモーダル合成
- Authors: Yuda Bi, Anees Abrol, Jing Sui, and Vince Calhoun
- Abstract要約: 構造的磁気共鳴画像(sMRI)と機能的ネットワーク接続(FNC)の相互合成は、医用画像では比較的研究されていない。
本研究では、条件付き視覚変換器生成適応ネットワーク(cViT-GAN)を用いて、sMRI入力に基づいてFNCデータを生成する。
- 参考スコア(独自算出の注目度): 0.8778841570220198
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The cross-modal synthesis between structural magnetic resonance imaging
(sMRI) and functional network connectivity (FNC) is a relatively unexplored
area in medical imaging, especially with respect to schizophrenia. This study
employs conditional Vision Transformer Generative Adversarial Networks
(cViT-GANs) to generate FNC data based on sMRI inputs. After training on a
comprehensive dataset that included both individuals with schizophrenia and
healthy control subjects, our cViT-GAN model effectively synthesized the FNC
matrix for each subject, and then formed a group difference FNC matrix,
obtaining a Pearson correlation of 0.73 with the actual FNC matrix. In
addition, our FNC visualization results demonstrate significant correlations in
particular subcortical brain regions, highlighting the model's capability of
capturing detailed structural-functional associations. This performance
distinguishes our model from conditional CNN-based GAN alternatives such as
Pix2Pix. Our research is one of the first attempts to link sMRI and FNC
synthesis, setting it apart from other cross-modal studies that concentrate on
T1- and T2-weighted MR images or the fusion of MRI and CT scans.
- Abstract(参考訳): 構造的磁気共鳴画像(sMRI)と機能的ネットワーク接続(FNC)の相互合成は、特に統合失調症に関して、医学的画像において比較的未発見領域である。
本研究は,条件付き視覚トランスフォーマティブ生成逆ネットワーク(cvit-gans)を用いて,smri入力に基づくfncデータを生成する。
統合失調症の患者と健常者の両方を含む包括的データセットをトレーニングした後、我々のcViT-GANモデルは、各被験者のFNCマトリックスを効果的に合成し、グループ差FNCマトリックスを作成し、実際のFNCマトリックスとのピアソン相関を0.73とした。
さらに,脳皮質下領域に有意な相関を示し,詳細な構造的・機能的関連をとらえるモデルの能力を強調した。
この性能は、pix2pixのような条件付きcnnベースのgan代替品と我々のモデルを区別する。
我々の研究は、MRIとFNC合成を結びつける最初の試みの1つであり、T1-およびT2-weighted MR画像やMRIとCTの融合に焦点を当てた他のクロスモーダル研究とは別のものである。
関連論文リスト
- Copula-Linked Parallel ICA: A Method for Coupling Structural and Functional MRI brain Networks [0.5277756703318045]
機能的MRI(fMRI)と構造的MRI(sMRI)を融合させる以前の研究では、このアプローチの利点が示されている。
我々は、深層学習フレームワーク、コプラと独立成分分析(ICA)を組み合わせた新しい融合法、コプラリンク並列ICA(CLiP-ICA)を開発した。
CLiP-ICAは、脳、感覚運動、視覚、認知制御、デフォルトモードネットワークなど、強い結合と弱い結合sMRIとfMRIネットワークの両方を効果的にキャプチャする。
論文 参考訳(メタデータ) (2024-10-14T01:35:41Z) - MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - DiffGAN-F2S: Symmetric and Efficient Denoising Diffusion GANs for
Structural Connectivity Prediction from Brain fMRI [15.40111168345568]
構造接続(SC)と機能的磁気共鳴イメージング(fMRI)の信頼性非直線マッピング関係を橋渡しすることは困難である
脳のfMRIからエンド・ツー・エンド・エンドの方法でSCを予測するために,新しい拡散生成逆ネットワークを用いたfMRI-to-SCモデルを提案する。
論文 参考訳(メタデータ) (2023-09-28T06:55:50Z) - Controllable Mind Visual Diffusion Model [58.83896307930354]
脳信号の可視化は、人間の視覚システムとコンピュータビジョンモデルの間の重要なインターフェースとして機能する活発な研究領域として登場した。
我々は、制御可能なマインドビジュアルモデル拡散(CMVDM)と呼ばれる新しいアプローチを提案する。
CMVDMは属性アライメントとアシスタントネットワークを用いてfMRIデータから意味情報とシルエット情報を抽出する。
そして、制御モデルを利用して抽出した情報を画像合成に活用し、セマンティクスやシルエットの観点から視覚刺激によく似た画像を生成する。
論文 参考訳(メタデータ) (2023-05-17T11:36:40Z) - High-fidelity Direct Contrast Synthesis from Magnetic Resonance
Fingerprinting [28.702553164811473]
本稿では,MRFデータからコントラスト強調画像を直接合成する教師あり学習手法を提案する。
In-vivo実験は、シミュレーションベースのコントラスト合成や従来のDCS法と比較して、視覚的にも定量的にも優れた画質を示す。
論文 参考訳(メタデータ) (2022-12-21T07:11:39Z) - Confidence-guided Lesion Mask-based Simultaneous Synthesis of Anatomic
and Molecular MR Images in Patients with Post-treatment Malignant Gliomas [65.64363834322333]
信頼性ガイドSAMR(CG-SAMR)は、病変情報からマルチモーダル解剖学的配列にデータを合成する。
モジュールは中間結果に対する信頼度測定に基づいて合成をガイドする。
実際の臨床データを用いた実験により,提案モデルが最先端の合成法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-08-06T20:20:22Z) - Lesion Mask-based Simultaneous Synthesis of Anatomic and MolecularMR
Images using a GAN [59.60954255038335]
提案するフレームワークは,ストレッチアウトアップサンプリングモジュール,ブレインアトラスエンコーダ,セグメンテーション一貫性モジュール,マルチスケールラベルワイド識別器から構成される。
実際の臨床データを用いた実験により,提案モデルが最先端の合成法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-26T02:50:09Z) - Multi-Modality Generative Adversarial Networks with Tumor Consistency
Loss for Brain MR Image Synthesis [30.64847799586407]
1つのMRモードT2から3つの高品質MRモード(FLAIR, T1, T1ce)を同時に合成する多モード生成対向ネットワーク(MGAN)を提案する。
実験結果から, 合成画像の品質は, ベースラインモデル, pix2pixで合成した画像より優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-02T21:33:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。