論文の概要: Cross-Modal Synthesis of Structural MRI and Functional Connectivity
Networks via Conditional ViT-GANs
- arxiv url: http://arxiv.org/abs/2309.08160v1
- Date: Fri, 15 Sep 2023 05:03:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 15:52:41.757882
- Title: Cross-Modal Synthesis of Structural MRI and Functional Connectivity
Networks via Conditional ViT-GANs
- Title(参考訳): 条件付きVT-GANを用いた構造MRIと機能接続ネットワークのクロスモーダル合成
- Authors: Yuda Bi, Anees Abrol, Jing Sui, and Vince Calhoun
- Abstract要約: 構造的磁気共鳴画像(sMRI)と機能的ネットワーク接続(FNC)の相互合成は、医用画像では比較的研究されていない。
本研究では、条件付き視覚変換器生成適応ネットワーク(cViT-GAN)を用いて、sMRI入力に基づいてFNCデータを生成する。
- 参考スコア(独自算出の注目度): 0.8778841570220198
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The cross-modal synthesis between structural magnetic resonance imaging
(sMRI) and functional network connectivity (FNC) is a relatively unexplored
area in medical imaging, especially with respect to schizophrenia. This study
employs conditional Vision Transformer Generative Adversarial Networks
(cViT-GANs) to generate FNC data based on sMRI inputs. After training on a
comprehensive dataset that included both individuals with schizophrenia and
healthy control subjects, our cViT-GAN model effectively synthesized the FNC
matrix for each subject, and then formed a group difference FNC matrix,
obtaining a Pearson correlation of 0.73 with the actual FNC matrix. In
addition, our FNC visualization results demonstrate significant correlations in
particular subcortical brain regions, highlighting the model's capability of
capturing detailed structural-functional associations. This performance
distinguishes our model from conditional CNN-based GAN alternatives such as
Pix2Pix. Our research is one of the first attempts to link sMRI and FNC
synthesis, setting it apart from other cross-modal studies that concentrate on
T1- and T2-weighted MR images or the fusion of MRI and CT scans.
- Abstract(参考訳): 構造的磁気共鳴画像(sMRI)と機能的ネットワーク接続(FNC)の相互合成は、特に統合失調症に関して、医学的画像において比較的未発見領域である。
本研究は,条件付き視覚トランスフォーマティブ生成逆ネットワーク(cvit-gans)を用いて,smri入力に基づくfncデータを生成する。
統合失調症の患者と健常者の両方を含む包括的データセットをトレーニングした後、我々のcViT-GANモデルは、各被験者のFNCマトリックスを効果的に合成し、グループ差FNCマトリックスを作成し、実際のFNCマトリックスとのピアソン相関を0.73とした。
さらに,脳皮質下領域に有意な相関を示し,詳細な構造的・機能的関連をとらえるモデルの能力を強調した。
この性能は、pix2pixのような条件付きcnnベースのgan代替品と我々のモデルを区別する。
我々の研究は、MRIとFNC合成を結びつける最初の試みの1つであり、T1-およびT2-weighted MR画像やMRIとCTの融合に焦点を当てた他のクロスモーダル研究とは別のものである。
関連論文リスト
- SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - Disentangled Multimodal Brain MR Image Translation via Transformer-based
Modality Infuser [12.402947207350394]
マルチモーダル脳MR画像の合成を目的としたトランスフォーマーを用いたモダリティインジェクタを提案する。
本手法では,エンコーダからモダリティに依存しない特徴を抽出し,その特徴をモダリティ固有の特徴に変換する。
われわれはBraTS 2018データセットで4つのMRモードを変換する実験を行った。
論文 参考訳(メタデータ) (2024-02-01T06:34:35Z) - DiffGAN-F2S: Symmetric and Efficient Denoising Diffusion GANs for
Structural Connectivity Prediction from Brain fMRI [15.40111168345568]
構造接続(SC)と機能的磁気共鳴イメージング(fMRI)の信頼性非直線マッピング関係を橋渡しすることは困難である
脳のfMRIからエンド・ツー・エンド・エンドの方法でSCを予測するために,新しい拡散生成逆ネットワークを用いたfMRI-to-SCモデルを提案する。
論文 参考訳(メタデータ) (2023-09-28T06:55:50Z) - Controllable Mind Visual Diffusion Model [58.83896307930354]
脳信号の可視化は、人間の視覚システムとコンピュータビジョンモデルの間の重要なインターフェースとして機能する活発な研究領域として登場した。
我々は、制御可能なマインドビジュアルモデル拡散(CMVDM)と呼ばれる新しいアプローチを提案する。
CMVDMは属性アライメントとアシスタントネットワークを用いてfMRIデータから意味情報とシルエット情報を抽出する。
そして、制御モデルを利用して抽出した情報を画像合成に活用し、セマンティクスやシルエットの観点から視覚刺激によく似た画像を生成する。
論文 参考訳(メタデータ) (2023-05-17T11:36:40Z) - Joint fMRI Decoding and Encoding with Latent Embedding Alignment [77.66508125297754]
我々はfMRIデコーディングと符号化の両方に対処する統合フレームワークを導入する。
本モデルでは、fMRI信号から視覚刺激を同時に回復し、統合された枠組み内の画像から脳活動を予測する。
論文 参考訳(メタデータ) (2023-03-26T14:14:58Z) - High-fidelity Direct Contrast Synthesis from Magnetic Resonance
Fingerprinting [28.702553164811473]
本稿では,MRFデータからコントラスト強調画像を直接合成する教師あり学習手法を提案する。
In-vivo実験は、シミュレーションベースのコントラスト合成や従来のDCS法と比較して、視覚的にも定量的にも優れた画質を示す。
論文 参考訳(メタデータ) (2022-12-21T07:11:39Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Confidence-guided Lesion Mask-based Simultaneous Synthesis of Anatomic
and Molecular MR Images in Patients with Post-treatment Malignant Gliomas [65.64363834322333]
信頼性ガイドSAMR(CG-SAMR)は、病変情報からマルチモーダル解剖学的配列にデータを合成する。
モジュールは中間結果に対する信頼度測定に基づいて合成をガイドする。
実際の臨床データを用いた実験により,提案モデルが最先端の合成法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-08-06T20:20:22Z) - Lesion Mask-based Simultaneous Synthesis of Anatomic and MolecularMR
Images using a GAN [59.60954255038335]
提案するフレームワークは,ストレッチアウトアップサンプリングモジュール,ブレインアトラスエンコーダ,セグメンテーション一貫性モジュール,マルチスケールラベルワイド識別器から構成される。
実際の臨床データを用いた実験により,提案モデルが最先端の合成法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-26T02:50:09Z) - Multi-Modality Generative Adversarial Networks with Tumor Consistency
Loss for Brain MR Image Synthesis [30.64847799586407]
1つのMRモードT2から3つの高品質MRモード(FLAIR, T1, T1ce)を同時に合成する多モード生成対向ネットワーク(MGAN)を提案する。
実験結果から, 合成画像の品質は, ベースラインモデル, pix2pixで合成した画像より優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-02T21:33:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。