論文の概要: Trustworthy Contrast-enhanced Brain MRI Synthesis
- arxiv url: http://arxiv.org/abs/2407.07372v1
- Date: Wed, 10 Jul 2024 05:17:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-07-11 17:51:32.132514
- Title: Trustworthy Contrast-enhanced Brain MRI Synthesis
- Title(参考訳): 信頼できるコントラスト強調脳MRI合成
- Authors: Jiyao Liu, Yuxin Li, Shangqi Gao, Yuncheng Zhou, Xin Gao, Ningsheng Xu, Xiao-Yong Zhang, Xiahai Zhuang,
- Abstract要約: 多モード医用画像翻訳は、CE-MRI画像を他のモダリティから合成することを目的としている。
マルチモーダル回帰問題として,複数対1の医用画像翻訳問題を再構成する信頼性の高い新しい手法であるTrustI2Iを紹介する。
- 参考スコア(独自算出の注目度): 27.43375565176473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrast-enhanced brain MRI (CE-MRI) is a valuable diagnostic technique but may pose health risks and incur high costs. To create safer alternatives, multi-modality medical image translation aims to synthesize CE-MRI images from other available modalities. Although existing methods can generate promising predictions, they still face two challenges, i.e., exhibiting over-confidence and lacking interpretability on predictions. To address the above challenges, this paper introduces TrustI2I, a novel trustworthy method that reformulates multi-to-one medical image translation problem as a multimodal regression problem, aiming to build an uncertainty-aware and reliable system. Specifically, our method leverages deep evidential regression to estimate prediction uncertainties and employs an explicit intermediate and late fusion strategy based on the Mixture of Normal Inverse Gamma (MoNIG) distribution, enhancing both synthesis quality and interpretability. Additionally, we incorporate uncertainty calibration to improve the reliability of uncertainty. Validation on the BraTS2018 dataset demonstrates that our approach surpasses current methods, producing higher-quality images with rational uncertainty estimation.
- Abstract(参考訳): コントラスト強調脳MRI(CE-MRI)は貴重な診断技術であるが、健康リスクを生じ、高いコストがかかる可能性がある。
安全な代替品を作成するために、多モードの医療画像変換は、他の利用可能なモダリティからCE-MRI画像を合成することを目的としている。
既存の手法は有望な予測を生成できるが、彼らはまだ2つの課題に直面している。
以上の課題に対処するため,TrustI2Iは,マルチモーダル回帰問題として複数対1の医用画像翻訳問題を再構成し,不確実性を認識し信頼性の高いシステムを構築することを目的とした,信頼性の高い新しい手法である。
具体的には,予測の不確実性を推定するために深い明解回帰を活用し,正規逆ガンマ(MoNIG)分布の混合に基づく明示的な中間・後期融合戦略を用いて,合成品質と解釈可能性の両方を向上する。
さらに、不確実性の校正を取り入れ、不確実性の信頼性を向上させる。
BraTS2018データセットの検証は、我々のアプローチが現在の手法を超え、合理的な不確実性推定を伴う高品質な画像を生成することを示す。
関連論文リスト
- Towards Scalable and Robust White Matter Lesion Localization via Multimodal Deep Learning [2.0749231618270803]
ホワイトマター・ハイパーインテンシティ(White matter hyperintensities, WMH)は、小血管疾患や神経変性の放射線マーカーであり、正確なセグメンテーションと局所化が診断とモニタリングに不可欠である。
単一モードのMRI入力とマルチモードのMRI入力を用いて,WM病変分割と局所化の深層学習フレームワークを提案する。
本研究は, 高精度かつ堅牢なWMH解析のためのマルチモーダルフュージョンの有用性と, 統合予測のためのジョイントモデリングの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2025-06-27T09:39:26Z) - Decoupling Multi-Contrast Super-Resolution: Pairing Unpaired Synthesis with Implicit Representations [6.255537948555454]
マルチコントラスト・スーパーリゾリューション技術は、低解像度のコントラストの品質を高めることができる。
既存のMCSRメソッドは、しばしば固定解像度の設定を前提としており、すべて大きな完全にペアのトレーニングデータセットを必要とする。
本稿では,ペア化トレーニングデータの必要性を排除し,任意のアップスケーリングをサポートするモジュール型マルチコントラスト超解法フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-09T07:48:52Z) - Uncertainty-aware abstention in medical diagnosis based on medical texts [87.88110503208016]
本研究は,AI支援医療診断における信頼性の重要課題について論じる。
本研究は,診断に自信がなければ,診断システムによる意思決定の回避を可能にする選択予測手法に焦点をあてる。
我々は、選択予測タスクにおける信頼性を高めるための新しい最先端手法であるHUQ-2を紹介する。
論文 参考訳(メタデータ) (2025-02-25T10:15:21Z) - Incomplete Modality Disentangled Representation for Ophthalmic Disease Grading and Diagnosis [16.95583564875497]
本稿では,不完全なモダリティ・ディアンタングル表現(IMDR)戦略を提案する。
4つのマルチモーダルデータセットの実験により、提案したIMDRが最先端の手法を大幅に上回ることを示した。
論文 参考訳(メタデータ) (2025-02-17T12:10:35Z) - Multimodal Fusion Learning with Dual Attention for Medical Imaging [8.74917075651321]
マルチモーダル・フュージョン・ラーニングは皮膚癌や脳腫瘍など様々な疾患の分類において有望である。
既存のメソッドには3つの重要な制限がある。
DRIFAは、ディープニューラルネットワークと統合することができ、DRIFA-Netと呼ばれるマルチモーダル融合学習フレームワークを形成する。
論文 参考訳(メタデータ) (2024-12-02T08:11:12Z) - ETSCL: An Evidence Theory-Based Supervised Contrastive Learning Framework for Multi-modal Glaucoma Grading [7.188153974946432]
緑内障は視覚障害の主要な原因の1つである。
医用画像の類似度が高いことと、不均衡なマルチモーダルデータ分布のため、信頼性の高い特徴を抽出することは依然として困難である。
コントラストのある特徴抽出段階と決定レベルの融合段階からなる新しいフレームワークであるETSCLを提案する。
論文 参考訳(メタデータ) (2024-07-19T11:57:56Z) - Confidence-aware multi-modality learning for eye disease screening [58.861421804458395]
眼疾患スクリーニングのための新しい多モード顕在核融合パイプラインを提案する。
モダリティごとに信頼度を測り、マルチモダリティ情報をエレガントに統合する。
パブリックデータセットと内部データセットの両方の実験結果は、我々のモデルが堅牢性に優れていることを示している。
論文 参考訳(メタデータ) (2024-05-28T13:27:30Z) - Uncertainty Estimation in Contrast-Enhanced MR Image Translation with
Multi-Axis Fusion [6.727287631338148]
我々は,新しいモデル不確実性定量化手法であるマルチ軸核融合(MAF)を提案する。
提案手法は,T1,T2,T2-FLAIRスキャンに基づくコントラスト強調T1強調画像の合成に応用される。
論文 参考訳(メタデータ) (2023-11-20T20:09:48Z) - Calibrating Multimodal Learning [94.65232214643436]
本稿では,従来の手法の予測信頼性を校正するために,新たな正規化手法であるCML(Callibrating Multimodal Learning)正則化を提案する。
この技術は、既存のモデルによって柔軟に装備され、信頼性校正、分類精度、モデルロバスト性の観点から性能を向上させることができる。
論文 参考訳(メタデータ) (2023-06-02T04:29:57Z) - Reliable Multimodality Eye Disease Screening via Mixture of Student's t
Distributions [49.4545260500952]
眼疾患スクリーニングのための新しい多モード顕在核融合パイプラインEyeMoStについて紹介する。
本モデルでは,一様性に対する局所的不確実性と融合モードに対する大域的不確実性の両方を推定し,信頼性の高い分類結果を生成する。
パブリックデータセットと社内データセットの両方に関する実験結果から、我々のモデルは現在の手法よりも信頼性が高いことが判明した。
論文 参考訳(メタデータ) (2023-03-17T06:18:16Z) - Disentangled Uncertainty and Out of Distribution Detection in Medical
Generative Models [7.6146285961466]
医療領域における画像翻訳作業における画像の不確実性について検討した。
我々はCycleGANを用いて、T1強調脳MRIスキャンをT2強調脳MRIスキャンに変換する。
論文 参考訳(メタデータ) (2022-11-11T14:45:16Z) - Exploiting modality-invariant feature for robust multimodal emotion
recognition with missing modalities [76.08541852988536]
我々は、欠落したモダリティ・イマジネーション・ネットワーク(IF-MMIN)に不変な特徴を用いることを提案する。
提案モデルは,不確実なモダリティ条件下で,すべてのベースラインを上回り,全体の感情認識性能を不変に向上することを示す。
論文 参考訳(メタデータ) (2022-10-27T12:16:25Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - A Novel Unified Conditional Score-based Generative Framework for
Multi-modal Medical Image Completion [54.512440195060584]
我々は、スコアベース生成モデル(SGM)を活用するために、統一多モードスコアベース生成モデル(UMM-CSGM)を提案する。
UMM-CSGMは、新しいマルチインマルチアウトコンディションスコアネットワーク(mm-CSN)を用いて、クロスモーダル条件分布の包括的集合を学習する。
BraTS19データセットの実験により、UMM-CSGMは腫瘍誘発病変における不均一な増強と不規則な領域をより確実に合成できることが示された。
論文 参考訳(メタデータ) (2022-07-07T16:57:21Z) - Trustworthy Multimodal Regression with Mixture of Normal-inverse Gamma
Distributions [91.63716984911278]
このアルゴリズムは、異なるモードの適応的統合の原理における不確かさを効率的に推定し、信頼できる回帰結果を生成する。
実世界のデータと実世界のデータの両方に対する実験結果から,多モード回帰タスクにおける本手法の有効性と信頼性が示された。
論文 参考訳(メタデータ) (2021-11-11T14:28:12Z) - Bayesian Uncertainty Estimation of Learned Variational MRI
Reconstruction [63.202627467245584]
我々は,モデル不連続な不確かさを定量化するベイズ変分フレームワークを提案する。
提案手法はMRIのアンダーサンプを用いた再建術の術後成績を示す。
論文 参考訳(メタデータ) (2021-02-12T18:08:14Z) - M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients [151.4352001822956]
生存時間(OS)の早期かつ正確な予測は、脳腫瘍患者に対するより良い治療計画を得るのに役立つ。
既存の予測手法は、磁気共鳴(MR)ボリュームの局所的な病変領域における放射能特性に依存している。
我々は,マルチモーダルマルチチャネルネットワーク(M2Net)のエンドツーエンドOS時間予測モデルを提案する。
論文 参考訳(メタデータ) (2020-06-01T05:21:37Z) - Bayesian Conditional GAN for MRI Brain Image Synthesis [0.0]
本稿では, 画像合成精度を向上させるため, ベイズ条件生成対向ネットワーク (GAN) をコンクリートドロップアウトで用いることを提案する。
この方法は102名の被験者の脳腫瘍データセットを用いてT1wからT2wのMR画像変換によって検証される。
従来のベイズニューラルネットワークとモンテカルロのドロップアウトを比較すると,提案手法の結果はp値0.0186の相当低いRMSEに達する。
論文 参考訳(メタデータ) (2020-05-25T00:58:23Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。