論文の概要: Unsupervised Anomaly Detection in Brain MRI via Disentangled Anatomy Learning
- arxiv url: http://arxiv.org/abs/2512.21924v1
- Date: Fri, 26 Dec 2025 08:39:09 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:56:11.14483
- Title: Unsupervised Anomaly Detection in Brain MRI via Disentangled Anatomy Learning
- Title(参考訳): 解剖学学習による脳MRIの非教師的異常検出
- Authors: Tao Yang, Xiuying Wang, Hao Liu, Guanzhong Gong, Lian-Ming Wu, Yu-Ping Wang, Lisheng Wang,
- Abstract要約: 2つの新しいモジュールが提案され、新しいPHI再構築フレームワークが作られた。
脳MRIを画像情報に分解することで、一般化性を向上させるために、不整合表現モジュールを提案する。
エッジ・ツー・イメージ復元モジュールは、高周波エッジ情報から解剖学的表現を復元することにより、高品質なPHIを再構築するように設計されている。
- 参考スコア(独自算出の注目度): 13.28586148664722
- License:
- Abstract: Detection of various lesions in brain MRI is clinically critical, but challenging due to the diversity of lesions and variability in imaging conditions. Current unsupervised learning methods detect anomalies mainly through reconstructing abnormal images into pseudo-healthy images (PHIs) by normal samples learning and then analyzing differences between images. However, these unsupervised models face two significant limitations: restricted generalizability to multi-modality and multi-center MRIs due to their reliance on the specific imaging information in normal training data, and constrained performance due to abnormal residuals propagated from input images to reconstructed PHIs. To address these limitations, two novel modules are proposed, forming a new PHI reconstruction framework. Firstly, the disentangled representation module is proposed to improve generalizability by decoupling brain MRI into imaging information and essential imaging-invariant anatomical images, ensuring that the reconstruction focuses on the anatomy. Specifically, brain anatomical priors and a differentiable one-hot encoding operator are introduced to constrain the disentanglement results and enhance the disentanglement stability. Secondly, the edge-to-image restoration module is designed to reconstruct high-quality PHIs by restoring the anatomical representation from the high-frequency edge information of anatomical images, and then recoupling the disentangled imaging information. This module not only suppresses abnormal residuals in PHI by reducing abnormal pixels input through edge-only input, but also effectively reconstructs normal regions using the preserved structural details in the edges. Evaluated on nine public datasets (4,443 patients' MRIs from multiple centers), our method outperforms 17 SOTA methods, achieving absolute improvements of +18.32% in AP and +13.64% in DSC.
- Abstract(参考訳): 脳MRIにおける様々な病変の検出は臨床的に重要であるが、画像条件における病変の多様性と変動性のために困難である。
現在の教師なし学習法は、主に異常画像を通常のサンプル学習により擬似健康画像(PHI)に再構成し、画像間の差異を分析することによって異常を検出する。
しかし、これらの教師なしモデルは、通常のトレーニングデータにおける特定の画像情報に依存するため、マルチモーダリティとマルチセンタMRIに対する一般化可能性の制限と、入力画像から再構成されたPHIへ伝播する異常残差による性能の制限の2つの重要な制限に直面している。
これらの制約に対処するため、2つの新しいモジュールが提案され、新しいPHI再構築フレームワークが作られた。
まず,脳MRIを画像情報と本質的な画像不変の解剖学的画像に分解し,解剖学に焦点をあてることにより一般化性の向上を図る。
具体的には、脳解剖学的先行と微分可能なワンホット符号化演算子を導入し、アンタングル化結果を抑制し、アンタングル化安定性を高める。
第2に、エッジ・ツー・イメージ復元モジュールは、解剖画像の高周波エッジ情報から解剖学的表現を復元し、アンタングルされた画像情報を再結合することにより、高品質なPHIを再構築するように設計されている。
このモジュールは、エッジのみの入力によって入力される異常画素を減少させることで、PHIの異常な残留を抑えるだけでなく、エッジに保存された構造の詳細を用いて、正常領域を効果的に再構築する。
9つの公開データセット(多施設からの4,443人のMRI)で評価し、17のSOTA法より優れ、APでは+18.32%、DSCでは+13.64%の絶対的な改善が達成された。
関連論文リスト
- Frequency-Calibrated Membership Inference Attacks on Medical Image Diffusion Models [0.0]
医用画像拡散モデルにおけるMIAのための周波数校正再構成誤差(FCRE)法を提案する。
逆拡散過程を解析し、中周波再構成誤差を求め、再構成画像と原画像の間の構造類似度指数スコアを算出する。
論文 参考訳(メタデータ) (2025-06-17T18:59:43Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
様々な計測アンサンプパターンと画像解像度に頑健な統合MRI再構成モデルを提案する。
我々のモデルは、拡散法よりも600$times$高速な推論で、最先端CNN(End-to-End VarNet)の4dBでSSIMを11%改善し、PSNRを4dB改善する。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Unsupervised contrastive analysis for anomaly detection in brain MRIs via conditional diffusion models [13.970483987621135]
本研究では、健康な画像に対して自己教師付きコントラストエンコーダを訓練することにより、再建品質を改善するための教師なしフレームワークを提案する。
これらの特徴は、拡散モデルを用いて、与えられた画像の健全な外観を再構成し、画素ワイド比較による解釈可能な異常な局所化を可能にする。
論文 参考訳(メタデータ) (2024-06-02T15:19:07Z) - MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - Guided Reconstruction with Conditioned Diffusion Models for Unsupervised Anomaly Detection in Brain MRIs [35.46541584018842]
Unsupervised Anomaly Detection (UAD) は、正常なトレーニング分布から異常を外れ値として識別することを目的としている。
生成モデルは、与えられた入力画像に対する健康な脳解剖の再構築を学ぶために使用される。
本稿では,入力画像の潜在表現から得られた付加情報を用いて拡散モデルの復調過程を条件付けることを提案する。
論文 参考訳(メタデータ) (2023-12-07T11:03:42Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Negligible effect of brain MRI data preprocessing for tumor segmentation [36.89606202543839]
我々は3つの公開データセットの実験を行い、ディープニューラルネットワークにおける異なる前処理ステップの効果を評価する。
その結果、最も一般的な標準化手順は、ネットワーク性能に何の価値も与えないことが示されている。
画像の規格化に伴う信号分散の低減のため,画像強度正規化手法はモデル精度に寄与しない。
論文 参考訳(メタデータ) (2022-04-11T17:29:36Z) - Unsupervised Image Registration Towards Enhancing Performance and
Explainability in Cardiac And Brain Image Analysis [3.5718941645696485]
モダリティ内およびモダリティ内アフィンおよび非リグイド画像登録は、臨床画像診断において必須の医用画像解析プロセスである。
本稿では、アフィンおよび非剛性変換を正確にモデル化できる教師なしディープラーニング登録手法を提案する。
本手法は,モーダリティ不変の潜在反感を学習するために,双方向のモーダリティ画像合成を行う。
論文 参考訳(メタデータ) (2022-03-07T12:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。