論文の概要: RelA-Diffusion: Relativistic Adversarial Diffusion for Multi-Tracer PET Synthesis from Multi-Sequence MRI
- arxiv url: http://arxiv.org/abs/2602.21345v1
- Date: Tue, 24 Feb 2026 20:30:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.597579
- Title: RelA-Diffusion: Relativistic Adversarial Diffusion for Multi-Tracer PET Synthesis from Multi-Sequence MRI
- Title(参考訳): RelA-Diffusion:Multi-Sequence MRIを用いたPET合成のための相対論的逆拡散
- Authors: Minhui Yu, Yongheng Sun, David S. Lalush, Jason P Mihalik, Pew-Thian Yap, Mingxia Liu,
- Abstract要約: PET(Multi-tracer positron emission tomography)は、様々な神経病理過程に重要な洞察を与える。
高いコスト、放射線曝露、トレーサ利用制限によるマルチトラックPETの定期的な取得。
近年,構造MRIからのPET画像の合成のための深層学習手法の研究が進められている。
- 参考スコア(独自算出の注目度): 6.650038888450141
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-tracer positron emission tomography (PET) provides critical insights into diverse neuropathological processes such as tau accumulation, neuroinflammation, and $β$-amyloid deposition in the brain, making it indispensable for comprehensive neurological assessment. However, routine acquisition of multi-tracer PET is limited by high costs, radiation exposure, and restricted tracer availability. Recent efforts have explored deep learning approaches for synthesizing PET images from structural MRI. While some methods rely solely on T1-weighted MRI, others incorporate additional sequences such as T2-FLAIR to improve pathological sensitivity. However, existing methods often struggle to capture fine-grained anatomical and pathological details, resulting in artifacts and unrealistic outputs. To this end, we propose RelA-Diffusion, a Relativistic Adversarial Diffusion framework for multi-tracer PET synthesis from multi-sequence MRI. By leveraging both T1-weighted and T2-FLAIR scans as complementary inputs, RelA-Diffusion captures richer structural information to guide image generation. To improve synthesis fidelity, we introduce a gradient-penalized relativistic adversarial loss to the intermediate clean predictions of the diffusion model. This loss compares real and generated images in a relative manner, encouraging the synthesis of more realistic local structures. Both the relativistic formulation and the gradient penalty contribute to stabilizing the training, while adversarial feedback at each diffusion timestep enables consistent refinement throughout the generation process. Extensive experiments on two datasets demonstrate that RelA-Diffusion outperforms existing methods in both visual fidelity and quantitative metrics, highlighting its potential for accurate synthesis of multi-tracer PET.
- Abstract(参考訳): PET(Multi-tracer positron emission tomography)は、タウ蓄積、神経炎症、および脳内の$β$-アミロイド沈着などの様々な神経病理過程に関する重要な洞察を与え、包括的な神経学的評価には不可欠である。
しかし,マルチトラックPETの定期的な取得は,高コスト,放射線暴露,トレーサ利用の制限によって制限されている。
近年,構造MRIからのPET画像の合成のための深層学習手法の研究が進められている。
T1強調MRIのみに頼っている方法もあるが、T2-FLAIRのような追加のシーケンスを取り入れて病理学的感度を向上させる方法もある。
しかし、既存の方法はしばしば微細な解剖学的・病理学的詳細を捉えるのに苦労し、成果物や非現実的なアウトプットをもたらす。
この目的のために,多列MRIを用いたPET合成のための相対論的逆拡散フレームワークであるRelA-Diffusionを提案する。
T1重み付きスキャンとT2-FLAIRスキャンの両方を補完的な入力として利用することにより、RelA-Diffusionはよりリッチな構造情報をキャプチャして画像生成をガイドする。
本研究では, 拡散モデルの中間的クリーンな予測に対して, 勾配ペナル化相対論的逆数損失を導入する。
この損失は、実際の画像と生成された画像を相対的に比較し、より現実的な局所構造の合成を促進する。
相対論的定式化と勾配のペナルティの両方がトレーニングの安定化に寄与し、各拡散段階における敵のフィードバックは生成過程を通して一貫した改善を可能にする。
2つのデータセットに対する大規模な実験により、RelA-Diffusionは、視覚的忠実度と定量的メトリクスの両方において既存の手法よりも優れており、マルチトラックPETの正確な合成の可能性を強調している。
関連論文リスト
- Supervise-assisted Multi-modality Fusion Diffusion Model for PET Restoration [13.223240177272087]
ポジトロン・エミッション・トモグラフィ(PET)は、強力な機能的イメージングを提供するが、放射線被曝を伴う。放射線線量やスキャン時間を減らすことで、画像の品質を低下させることができる。
低用量PET (LPET) から標準用量PET (SPET) を復元するために、より明確な解剖学的情報を持つMRI画像を使用することは、有望なアプローチであるが、マルチモーダル融合の構造とテクスチャに矛盾のある課題に直面している。
高品質PET修復における課題に対処するために, スーパーバイス支援多モード融合拡散モデル (MFdiff) を提案する。
論文 参考訳(メタデータ) (2026-02-12T04:06:48Z) - FgC2F-UDiff: Frequency-guided and Coarse-to-fine Unified Diffusion Model for Multi-modality Missing MRI Synthesis [6.475175425060296]
我々は、周波数誘導および粗粒拡散モデル(FgC2F-UDiff)という新しい統合合成モデルを提案する。
論文 参考訳(メタデータ) (2025-01-07T04:42:45Z) - Functional Imaging Constrained Diffusion for Brain PET Synthesis from Structural MRI [5.190302448685122]
新しい制約拡散モデル (CDM) を用いて, 入力条件として2組構造MRIを用いた3次元脳PET画像合成のためのフレームワークを提案する。
FICDはPETにノイズを導入し、CDMで徐々に除去する。
CDMは、各denoized PETと基底真理との間のボクセルワイドアライメントを確保するために、機能的イメージング制約を導入して、denoized PETを予測することを学ぶ。
論文 参考訳(メタデータ) (2024-05-03T22:33:46Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - Spatial and Modal Optimal Transport for Fast Cross-Modal MRI Reconstruction [54.19448988321891]
本稿では,T1重み付き画像(T1WIs)を補助モダリティとして活用し,T2WIsの取得を高速化するエンド・ツー・エンドのディープラーニングフレームワークを提案する。
最適輸送(OT)を用いてT1WIを整列させてT2WIを合成し、クロスモーダル合成を行う。
再構成されたT2WIと合成されたT2WIがT2画像多様体に近づき、繰り返しが増加することを示す。
論文 参考訳(メタデータ) (2023-05-04T12:20:51Z) - Confidence-guided Lesion Mask-based Simultaneous Synthesis of Anatomic
and Molecular MR Images in Patients with Post-treatment Malignant Gliomas [65.64363834322333]
信頼性ガイドSAMR(CG-SAMR)は、病変情報からマルチモーダル解剖学的配列にデータを合成する。
モジュールは中間結果に対する信頼度測定に基づいて合成をガイドする。
実際の臨床データを用いた実験により,提案モデルが最先端の合成法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-08-06T20:20:22Z) - Lesion Mask-based Simultaneous Synthesis of Anatomic and MolecularMR
Images using a GAN [59.60954255038335]
提案するフレームワークは,ストレッチアウトアップサンプリングモジュール,ブレインアトラスエンコーダ,セグメンテーション一貫性モジュール,マルチスケールラベルワイド識別器から構成される。
実際の臨床データを用いた実験により,提案モデルが最先端の合成法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-26T02:50:09Z) - Multifold Acceleration of Diffusion MRI via Slice-Interleaved Diffusion
Encoding (SIDE) [50.65891535040752]
本稿では,Slice-Interleaved Diffusionと呼ばれる拡散符号化方式を提案する。
SIDEは、拡散重み付き(DW)画像ボリュームを異なる拡散勾配で符号化したスライスでインターリーブする。
また,高いスライスアンサンプデータからDW画像を効果的に再構成するためのディープラーニングに基づく手法を提案する。
論文 参考訳(メタデータ) (2020-02-25T14:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。