論文の概要: Multi-modal MRI Translation via Evidential Regression and Distribution Calibration
- arxiv url: http://arxiv.org/abs/2407.07372v2
- Date: Mon, 19 May 2025 02:56:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 17:08:51.244282
- Title: Multi-modal MRI Translation via Evidential Regression and Distribution Calibration
- Title(参考訳): Evidential Regression and Distribution CalibrationによるマルチモーダルMRI翻訳
- Authors: Jiyao Liu, Shangqi Gao, Yuxin Li, Lihao Liu, Xin Gao, Zhaohu Xing, Junzhi Ning, Yanzhou Su, Xiao-Yong Zhang, Junjun He, Ningsheng Xu, Xiahai Zhuang,
- Abstract要約: 本稿では,マルチモーダルMRI翻訳を分布校正を伴う多モーダルな明示的回帰問題として再構成する新しいフレームワークを提案する。
提案手法は,1) 異なるソースモードから不確かさを推定する明示的回帰モジュールと,2) ソースターゲットマッピングシフトに適応する分布校正機構とを具体化したものである。
- 参考スコア(独自算出の注目度): 29.56726531611307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-modal Magnetic Resonance Imaging (MRI) translation leverages information from source MRI sequences to generate target modalities, enabling comprehensive diagnosis while overcoming the limitations of acquiring all sequences. While existing deep-learning-based multi-modal MRI translation methods have shown promising potential, they still face two key challenges: 1) lack of reliable uncertainty quantification for synthesized images, and 2) limited robustness when deployed across different medical centers. To address these challenges, we propose a novel framework that reformulates multi-modal MRI translation as a multi-modal evidential regression problem with distribution calibration. Our approach incorporates two key components: 1) an evidential regression module that estimates uncertainties from different source modalities and an explicit distribution mixture strategy for transparent multi-modal fusion, and 2) a distribution calibration mechanism that adapts to source-target mapping shifts to ensure consistent performance across different medical centers. Extensive experiments on three datasets from the BraTS2023 challenge demonstrate that our framework achieves superior performance and robustness across domains.
- Abstract(参考訳): マルチモーダルMRI(Multi-modal Magnetic Resonance Imaging)変換は、ソースMRIシーケンスからの情報を活用してターゲットモードを生成することで、全てのシーケンスを取得する限界を克服しつつ、包括的な診断を可能にする。
既存のディープラーニングベースのマルチモーダルMRI翻訳手法は有望な可能性を示しているが、それでも2つの大きな課題に直面している。
1)合成画像の不確実性定量化の欠如、及び
2) 異なる医療センターに展開する場合の堅牢性は限定的であった。
これらの課題に対処するために,分布校正を伴うマルチモーダルな明示的回帰問題として,マルチモーダルMRI翻訳を再構成する新しいフレームワークを提案する。
このアプローチには2つの重要なコンポーネントが組み込まれています。
1 異なるソースモードから不確かさを推定し、かつ透明なマルチモーダル核融合のための明示的な分散混合戦略を有する明らかな回帰モジュール
2) 異なる医療センター間の一貫した性能を確保するため, ソース・ターゲットマッピングシフトに適応する分布校正機構について検討した。
BraTS2023チャレンジから得られた3つのデータセットに関する大規模な実験は、我々のフレームワークがドメイン間で優れたパフォーマンスと堅牢性を達成することを実証している。
関連論文リスト
- Towards Scalable and Robust White Matter Lesion Localization via Multimodal Deep Learning [2.0749231618270803]
ホワイトマター・ハイパーインテンシティ(White matter hyperintensities, WMH)は、小血管疾患や神経変性の放射線マーカーであり、正確なセグメンテーションと局所化が診断とモニタリングに不可欠である。
単一モードのMRI入力とマルチモードのMRI入力を用いて,WM病変分割と局所化の深層学習フレームワークを提案する。
本研究は, 高精度かつ堅牢なWMH解析のためのマルチモーダルフュージョンの有用性と, 統合予測のためのジョイントモデリングの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2025-06-27T09:39:26Z) - Decoupling Multi-Contrast Super-Resolution: Pairing Unpaired Synthesis with Implicit Representations [6.255537948555454]
マルチコントラスト・スーパーリゾリューション技術は、低解像度のコントラストの品質を高めることができる。
既存のMCSRメソッドは、しばしば固定解像度の設定を前提としており、すべて大きな完全にペアのトレーニングデータセットを必要とする。
本稿では,ペア化トレーニングデータの必要性を排除し,任意のアップスケーリングをサポートするモジュール型マルチコントラスト超解法フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-09T07:48:52Z) - Uncertainty-aware abstention in medical diagnosis based on medical texts [87.88110503208016]
本研究は,AI支援医療診断における信頼性の重要課題について論じる。
本研究は,診断に自信がなければ,診断システムによる意思決定の回避を可能にする選択予測手法に焦点をあてる。
我々は、選択予測タスクにおける信頼性を高めるための新しい最先端手法であるHUQ-2を紹介する。
論文 参考訳(メタデータ) (2025-02-25T10:15:21Z) - Incomplete Modality Disentangled Representation for Ophthalmic Disease Grading and Diagnosis [16.95583564875497]
本稿では,不完全なモダリティ・ディアンタングル表現(IMDR)戦略を提案する。
4つのマルチモーダルデータセットの実験により、提案したIMDRが最先端の手法を大幅に上回ることを示した。
論文 参考訳(メタデータ) (2025-02-17T12:10:35Z) - Multimodal Fusion Learning with Dual Attention for Medical Imaging [8.74917075651321]
マルチモーダル・フュージョン・ラーニングは皮膚癌や脳腫瘍など様々な疾患の分類において有望である。
既存のメソッドには3つの重要な制限がある。
DRIFAは、ディープニューラルネットワークと統合することができ、DRIFA-Netと呼ばれるマルチモーダル融合学習フレームワークを形成する。
論文 参考訳(メタデータ) (2024-12-02T08:11:12Z) - ETSCL: An Evidence Theory-Based Supervised Contrastive Learning Framework for Multi-modal Glaucoma Grading [7.188153974946432]
緑内障は視覚障害の主要な原因の1つである。
医用画像の類似度が高いことと、不均衡なマルチモーダルデータ分布のため、信頼性の高い特徴を抽出することは依然として困難である。
コントラストのある特徴抽出段階と決定レベルの融合段階からなる新しいフレームワークであるETSCLを提案する。
論文 参考訳(メタデータ) (2024-07-19T11:57:56Z) - Confidence-aware multi-modality learning for eye disease screening [58.861421804458395]
眼疾患スクリーニングのための新しい多モード顕在核融合パイプラインを提案する。
モダリティごとに信頼度を測り、マルチモダリティ情報をエレガントに統合する。
パブリックデータセットと内部データセットの両方の実験結果は、我々のモデルが堅牢性に優れていることを示している。
論文 参考訳(メタデータ) (2024-05-28T13:27:30Z) - Uncertainty Estimation in Contrast-Enhanced MR Image Translation with
Multi-Axis Fusion [6.727287631338148]
我々は,新しいモデル不確実性定量化手法であるマルチ軸核融合(MAF)を提案する。
提案手法は,T1,T2,T2-FLAIRスキャンに基づくコントラスト強調T1強調画像の合成に応用される。
論文 参考訳(メタデータ) (2023-11-20T20:09:48Z) - Calibrating Multimodal Learning [94.65232214643436]
本稿では,従来の手法の予測信頼性を校正するために,新たな正規化手法であるCML(Callibrating Multimodal Learning)正則化を提案する。
この技術は、既存のモデルによって柔軟に装備され、信頼性校正、分類精度、モデルロバスト性の観点から性能を向上させることができる。
論文 参考訳(メタデータ) (2023-06-02T04:29:57Z) - Reliable Multimodality Eye Disease Screening via Mixture of Student's t
Distributions [49.4545260500952]
眼疾患スクリーニングのための新しい多モード顕在核融合パイプラインEyeMoStについて紹介する。
本モデルでは,一様性に対する局所的不確実性と融合モードに対する大域的不確実性の両方を推定し,信頼性の高い分類結果を生成する。
パブリックデータセットと社内データセットの両方に関する実験結果から、我々のモデルは現在の手法よりも信頼性が高いことが判明した。
論文 参考訳(メタデータ) (2023-03-17T06:18:16Z) - Disentangled Uncertainty and Out of Distribution Detection in Medical
Generative Models [7.6146285961466]
医療領域における画像翻訳作業における画像の不確実性について検討した。
我々はCycleGANを用いて、T1強調脳MRIスキャンをT2強調脳MRIスキャンに変換する。
論文 参考訳(メタデータ) (2022-11-11T14:45:16Z) - Exploiting modality-invariant feature for robust multimodal emotion
recognition with missing modalities [76.08541852988536]
我々は、欠落したモダリティ・イマジネーション・ネットワーク(IF-MMIN)に不変な特徴を用いることを提案する。
提案モデルは,不確実なモダリティ条件下で,すべてのベースラインを上回り,全体の感情認識性能を不変に向上することを示す。
論文 参考訳(メタデータ) (2022-10-27T12:16:25Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - A Novel Unified Conditional Score-based Generative Framework for
Multi-modal Medical Image Completion [54.512440195060584]
我々は、スコアベース生成モデル(SGM)を活用するために、統一多モードスコアベース生成モデル(UMM-CSGM)を提案する。
UMM-CSGMは、新しいマルチインマルチアウトコンディションスコアネットワーク(mm-CSN)を用いて、クロスモーダル条件分布の包括的集合を学習する。
BraTS19データセットの実験により、UMM-CSGMは腫瘍誘発病変における不均一な増強と不規則な領域をより確実に合成できることが示された。
論文 参考訳(メタデータ) (2022-07-07T16:57:21Z) - Trustworthy Multimodal Regression with Mixture of Normal-inverse Gamma
Distributions [91.63716984911278]
このアルゴリズムは、異なるモードの適応的統合の原理における不確かさを効率的に推定し、信頼できる回帰結果を生成する。
実世界のデータと実世界のデータの両方に対する実験結果から,多モード回帰タスクにおける本手法の有効性と信頼性が示された。
論文 参考訳(メタデータ) (2021-11-11T14:28:12Z) - Bayesian Uncertainty Estimation of Learned Variational MRI
Reconstruction [63.202627467245584]
我々は,モデル不連続な不確かさを定量化するベイズ変分フレームワークを提案する。
提案手法はMRIのアンダーサンプを用いた再建術の術後成績を示す。
論文 参考訳(メタデータ) (2021-02-12T18:08:14Z) - M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients [151.4352001822956]
生存時間(OS)の早期かつ正確な予測は、脳腫瘍患者に対するより良い治療計画を得るのに役立つ。
既存の予測手法は、磁気共鳴(MR)ボリュームの局所的な病変領域における放射能特性に依存している。
我々は,マルチモーダルマルチチャネルネットワーク(M2Net)のエンドツーエンドOS時間予測モデルを提案する。
論文 参考訳(メタデータ) (2020-06-01T05:21:37Z) - Bayesian Conditional GAN for MRI Brain Image Synthesis [0.0]
本稿では, 画像合成精度を向上させるため, ベイズ条件生成対向ネットワーク (GAN) をコンクリートドロップアウトで用いることを提案する。
この方法は102名の被験者の脳腫瘍データセットを用いてT1wからT2wのMR画像変換によって検証される。
従来のベイズニューラルネットワークとモンテカルロのドロップアウトを比較すると,提案手法の結果はp値0.0186の相当低いRMSEに達する。
論文 参考訳(メタデータ) (2020-05-25T00:58:23Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。