論文の概要: Trustworthy Contrast-enhanced Brain MRI Synthesis
- arxiv url: http://arxiv.org/abs/2407.07372v1
- Date: Wed, 10 Jul 2024 05:17:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-11 17:51:32.132514
- Title: Trustworthy Contrast-enhanced Brain MRI Synthesis
- Title(参考訳): 信頼できるコントラスト強調脳MRI合成
- Authors: Jiyao Liu, Yuxin Li, Shangqi Gao, Yuncheng Zhou, Xin Gao, Ningsheng Xu, Xiao-Yong Zhang, Xiahai Zhuang,
- Abstract要約: 多モード医用画像翻訳は、CE-MRI画像を他のモダリティから合成することを目的としている。
マルチモーダル回帰問題として,複数対1の医用画像翻訳問題を再構成する信頼性の高い新しい手法であるTrustI2Iを紹介する。
- 参考スコア(独自算出の注目度): 27.43375565176473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrast-enhanced brain MRI (CE-MRI) is a valuable diagnostic technique but may pose health risks and incur high costs. To create safer alternatives, multi-modality medical image translation aims to synthesize CE-MRI images from other available modalities. Although existing methods can generate promising predictions, they still face two challenges, i.e., exhibiting over-confidence and lacking interpretability on predictions. To address the above challenges, this paper introduces TrustI2I, a novel trustworthy method that reformulates multi-to-one medical image translation problem as a multimodal regression problem, aiming to build an uncertainty-aware and reliable system. Specifically, our method leverages deep evidential regression to estimate prediction uncertainties and employs an explicit intermediate and late fusion strategy based on the Mixture of Normal Inverse Gamma (MoNIG) distribution, enhancing both synthesis quality and interpretability. Additionally, we incorporate uncertainty calibration to improve the reliability of uncertainty. Validation on the BraTS2018 dataset demonstrates that our approach surpasses current methods, producing higher-quality images with rational uncertainty estimation.
- Abstract(参考訳): コントラスト強調脳MRI(CE-MRI)は貴重な診断技術であるが、健康リスクを生じ、高いコストがかかる可能性がある。
安全な代替品を作成するために、多モードの医療画像変換は、他の利用可能なモダリティからCE-MRI画像を合成することを目的としている。
既存の手法は有望な予測を生成できるが、彼らはまだ2つの課題に直面している。
以上の課題に対処するため,TrustI2Iは,マルチモーダル回帰問題として複数対1の医用画像翻訳問題を再構成し,不確実性を認識し信頼性の高いシステムを構築することを目的とした,信頼性の高い新しい手法である。
具体的には,予測の不確実性を推定するために深い明解回帰を活用し,正規逆ガンマ(MoNIG)分布の混合に基づく明示的な中間・後期融合戦略を用いて,合成品質と解釈可能性の両方を向上する。
さらに、不確実性の校正を取り入れ、不確実性の信頼性を向上させる。
BraTS2018データセットの検証は、我々のアプローチが現在の手法を超え、合理的な不確実性推定を伴う高品質な画像を生成することを示す。
関連論文リスト
- ETSCL: An Evidence Theory-Based Supervised Contrastive Learning Framework for Multi-modal Glaucoma Grading [7.188153974946432]
緑内障は視覚障害の主要な原因の1つである。
医用画像の類似度が高いことと、不均衡なマルチモーダルデータ分布のため、信頼性の高い特徴を抽出することは依然として困難である。
コントラストのある特徴抽出段階と決定レベルの融合段階からなる新しいフレームワークであるETSCLを提案する。
論文 参考訳(メタデータ) (2024-07-19T11:57:56Z) - Confidence-aware multi-modality learning for eye disease screening [58.861421804458395]
眼疾患スクリーニングのための新しい多モード顕在核融合パイプラインを提案する。
モダリティごとに信頼度を測り、マルチモダリティ情報をエレガントに統合する。
パブリックデータセットと内部データセットの両方の実験結果は、我々のモデルが堅牢性に優れていることを示している。
論文 参考訳(メタデータ) (2024-05-28T13:27:30Z) - Uncertainty Estimation in Contrast-Enhanced MR Image Translation with
Multi-Axis Fusion [6.727287631338148]
我々は,新しいモデル不確実性定量化手法であるマルチ軸核融合(MAF)を提案する。
提案手法は,T1,T2,T2-FLAIRスキャンに基づくコントラスト強調T1強調画像の合成に応用される。
論文 参考訳(メタデータ) (2023-11-20T20:09:48Z) - Calibrating Multimodal Learning [94.65232214643436]
本稿では,従来の手法の予測信頼性を校正するために,新たな正規化手法であるCML(Callibrating Multimodal Learning)正則化を提案する。
この技術は、既存のモデルによって柔軟に装備され、信頼性校正、分類精度、モデルロバスト性の観点から性能を向上させることができる。
論文 参考訳(メタデータ) (2023-06-02T04:29:57Z) - Reliable Multimodality Eye Disease Screening via Mixture of Student's t
Distributions [49.4545260500952]
眼疾患スクリーニングのための新しい多モード顕在核融合パイプラインEyeMoStについて紹介する。
本モデルでは,一様性に対する局所的不確実性と融合モードに対する大域的不確実性の両方を推定し,信頼性の高い分類結果を生成する。
パブリックデータセットと社内データセットの両方に関する実験結果から、我々のモデルは現在の手法よりも信頼性が高いことが判明した。
論文 参考訳(メタデータ) (2023-03-17T06:18:16Z) - Disentangled Uncertainty and Out of Distribution Detection in Medical
Generative Models [7.6146285961466]
医療領域における画像翻訳作業における画像の不確実性について検討した。
我々はCycleGANを用いて、T1強調脳MRIスキャンをT2強調脳MRIスキャンに変換する。
論文 参考訳(メタデータ) (2022-11-11T14:45:16Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Trustworthy Multimodal Regression with Mixture of Normal-inverse Gamma
Distributions [91.63716984911278]
このアルゴリズムは、異なるモードの適応的統合の原理における不確かさを効率的に推定し、信頼できる回帰結果を生成する。
実世界のデータと実世界のデータの両方に対する実験結果から,多モード回帰タスクにおける本手法の有効性と信頼性が示された。
論文 参考訳(メタデータ) (2021-11-11T14:28:12Z) - Bayesian Uncertainty Estimation of Learned Variational MRI
Reconstruction [63.202627467245584]
我々は,モデル不連続な不確かさを定量化するベイズ変分フレームワークを提案する。
提案手法はMRIのアンダーサンプを用いた再建術の術後成績を示す。
論文 参考訳(メタデータ) (2021-02-12T18:08:14Z) - Bayesian Conditional GAN for MRI Brain Image Synthesis [0.0]
本稿では, 画像合成精度を向上させるため, ベイズ条件生成対向ネットワーク (GAN) をコンクリートドロップアウトで用いることを提案する。
この方法は102名の被験者の脳腫瘍データセットを用いてT1wからT2wのMR画像変換によって検証される。
従来のベイズニューラルネットワークとモンテカルロのドロップアウトを比較すると,提案手法の結果はp値0.0186の相当低いRMSEに達する。
論文 参考訳(メタデータ) (2020-05-25T00:58:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。