論文の概要: Multi-modal MRI Translation via Evidential Regression and Distribution Calibration
- arxiv url: http://arxiv.org/abs/2407.07372v2
- Date: Mon, 19 May 2025 02:56:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 17:08:51.244282
- Title: Multi-modal MRI Translation via Evidential Regression and Distribution Calibration
- Title(参考訳): Evidential Regression and Distribution CalibrationによるマルチモーダルMRI翻訳
- Authors: Jiyao Liu, Shangqi Gao, Yuxin Li, Lihao Liu, Xin Gao, Zhaohu Xing, Junzhi Ning, Yanzhou Su, Xiao-Yong Zhang, Junjun He, Ningsheng Xu, Xiahai Zhuang,
- Abstract要約: 本稿では,マルチモーダルMRI翻訳を分布校正を伴う多モーダルな明示的回帰問題として再構成する新しいフレームワークを提案する。
提案手法は,1) 異なるソースモードから不確かさを推定する明示的回帰モジュールと,2) ソースターゲットマッピングシフトに適応する分布校正機構とを具体化したものである。
- 参考スコア(独自算出の注目度): 29.56726531611307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-modal Magnetic Resonance Imaging (MRI) translation leverages information from source MRI sequences to generate target modalities, enabling comprehensive diagnosis while overcoming the limitations of acquiring all sequences. While existing deep-learning-based multi-modal MRI translation methods have shown promising potential, they still face two key challenges: 1) lack of reliable uncertainty quantification for synthesized images, and 2) limited robustness when deployed across different medical centers. To address these challenges, we propose a novel framework that reformulates multi-modal MRI translation as a multi-modal evidential regression problem with distribution calibration. Our approach incorporates two key components: 1) an evidential regression module that estimates uncertainties from different source modalities and an explicit distribution mixture strategy for transparent multi-modal fusion, and 2) a distribution calibration mechanism that adapts to source-target mapping shifts to ensure consistent performance across different medical centers. Extensive experiments on three datasets from the BraTS2023 challenge demonstrate that our framework achieves superior performance and robustness across domains.
- Abstract(参考訳): マルチモーダルMRI(Multi-modal Magnetic Resonance Imaging)変換は、ソースMRIシーケンスからの情報を活用してターゲットモードを生成することで、全てのシーケンスを取得する限界を克服しつつ、包括的な診断を可能にする。
既存のディープラーニングベースのマルチモーダルMRI翻訳手法は有望な可能性を示しているが、それでも2つの大きな課題に直面している。
1)合成画像の不確実性定量化の欠如、及び
2) 異なる医療センターに展開する場合の堅牢性は限定的であった。
これらの課題に対処するために,分布校正を伴うマルチモーダルな明示的回帰問題として,マルチモーダルMRI翻訳を再構成する新しいフレームワークを提案する。
このアプローチには2つの重要なコンポーネントが組み込まれています。
1 異なるソースモードから不確かさを推定し、かつ透明なマルチモーダル核融合のための明示的な分散混合戦略を有する明らかな回帰モジュール
2) 異なる医療センター間の一貫した性能を確保するため, ソース・ターゲットマッピングシフトに適応する分布校正機構について検討した。
BraTS2023チャレンジから得られた3つのデータセットに関する大規模な実験は、我々のフレームワークがドメイン間で優れたパフォーマンスと堅牢性を達成することを実証している。
関連論文リスト
- Uncertainty-aware abstention in medical diagnosis based on medical texts [87.88110503208016]
本研究は,AI支援医療診断における信頼性の重要課題について論じる。
本研究は,診断に自信がなければ,診断システムによる意思決定の回避を可能にする選択予測手法に焦点をあてる。
我々は、選択予測タスクにおける信頼性を高めるための新しい最先端手法であるHUQ-2を紹介する。
論文 参考訳(メタデータ) (2025-02-25T10:15:21Z) - ETSCL: An Evidence Theory-Based Supervised Contrastive Learning Framework for Multi-modal Glaucoma Grading [7.188153974946432]
緑内障は視覚障害の主要な原因の1つである。
医用画像の類似度が高いことと、不均衡なマルチモーダルデータ分布のため、信頼性の高い特徴を抽出することは依然として困難である。
コントラストのある特徴抽出段階と決定レベルの融合段階からなる新しいフレームワークであるETSCLを提案する。
論文 参考訳(メタデータ) (2024-07-19T11:57:56Z) - Confidence-aware multi-modality learning for eye disease screening [58.861421804458395]
眼疾患スクリーニングのための新しい多モード顕在核融合パイプラインを提案する。
モダリティごとに信頼度を測り、マルチモダリティ情報をエレガントに統合する。
パブリックデータセットと内部データセットの両方の実験結果は、我々のモデルが堅牢性に優れていることを示している。
論文 参考訳(メタデータ) (2024-05-28T13:27:30Z) - Uncertainty Estimation in Contrast-Enhanced MR Image Translation with
Multi-Axis Fusion [6.727287631338148]
我々は,新しいモデル不確実性定量化手法であるマルチ軸核融合(MAF)を提案する。
提案手法は,T1,T2,T2-FLAIRスキャンに基づくコントラスト強調T1強調画像の合成に応用される。
論文 参考訳(メタデータ) (2023-11-20T20:09:48Z) - Calibrating Multimodal Learning [94.65232214643436]
本稿では,従来の手法の予測信頼性を校正するために,新たな正規化手法であるCML(Callibrating Multimodal Learning)正則化を提案する。
この技術は、既存のモデルによって柔軟に装備され、信頼性校正、分類精度、モデルロバスト性の観点から性能を向上させることができる。
論文 参考訳(メタデータ) (2023-06-02T04:29:57Z) - Reliable Multimodality Eye Disease Screening via Mixture of Student's t
Distributions [49.4545260500952]
眼疾患スクリーニングのための新しい多モード顕在核融合パイプラインEyeMoStについて紹介する。
本モデルでは,一様性に対する局所的不確実性と融合モードに対する大域的不確実性の両方を推定し,信頼性の高い分類結果を生成する。
パブリックデータセットと社内データセットの両方に関する実験結果から、我々のモデルは現在の手法よりも信頼性が高いことが判明した。
論文 参考訳(メタデータ) (2023-03-17T06:18:16Z) - Disentangled Uncertainty and Out of Distribution Detection in Medical
Generative Models [7.6146285961466]
医療領域における画像翻訳作業における画像の不確実性について検討した。
我々はCycleGANを用いて、T1強調脳MRIスキャンをT2強調脳MRIスキャンに変換する。
論文 参考訳(メタデータ) (2022-11-11T14:45:16Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Trustworthy Multimodal Regression with Mixture of Normal-inverse Gamma
Distributions [91.63716984911278]
このアルゴリズムは、異なるモードの適応的統合の原理における不確かさを効率的に推定し、信頼できる回帰結果を生成する。
実世界のデータと実世界のデータの両方に対する実験結果から,多モード回帰タスクにおける本手法の有効性と信頼性が示された。
論文 参考訳(メタデータ) (2021-11-11T14:28:12Z) - Bayesian Uncertainty Estimation of Learned Variational MRI
Reconstruction [63.202627467245584]
我々は,モデル不連続な不確かさを定量化するベイズ変分フレームワークを提案する。
提案手法はMRIのアンダーサンプを用いた再建術の術後成績を示す。
論文 参考訳(メタデータ) (2021-02-12T18:08:14Z) - Bayesian Conditional GAN for MRI Brain Image Synthesis [0.0]
本稿では, 画像合成精度を向上させるため, ベイズ条件生成対向ネットワーク (GAN) をコンクリートドロップアウトで用いることを提案する。
この方法は102名の被験者の脳腫瘍データセットを用いてT1wからT2wのMR画像変換によって検証される。
従来のベイズニューラルネットワークとモンテカルロのドロップアウトを比較すると,提案手法の結果はp値0.0186の相当低いRMSEに達する。
論文 参考訳(メタデータ) (2020-05-25T00:58:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。