論文の概要: Explainability in Generative Medical Diffusion Models: A Faithfulness-Based Analysis on MRI Synthesis
- arxiv url: http://arxiv.org/abs/2602.09781v1
- Date: Tue, 10 Feb 2026 13:41:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.550119
- Title: Explainability in Generative Medical Diffusion Models: A Faithfulness-Based Analysis on MRI Synthesis
- Title(参考訳): 生成医療拡散モデルにおける説明可能性:MRI合成における忠実度に基づく分析
- Authors: Surjo Dey, Pallabi Saikia,
- Abstract要約: 本研究では,医療画像の文脈における生成拡散モデルの説明可能性について検討した。
本稿では,プロトタイプベースの説明可能性手法が生成機能とトレーニング機能の関係をリンクする方法を,忠実度に基づく説明可能性フレームワークで分析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study investigates the explainability of generative diffusion models in the context of medical imaging, focusing on Magnetic resonance imaging (MRI) synthesis. Although diffusion models have shown strong performance in generating realistic medical images, their internal decision making process remains largely opaque. We present a faithfulness-based explainability framework that analyzes how prototype-based explainability methods like ProtoPNet (PPNet), Enhanced ProtoPNet (EPPNet), and ProtoPool can link the relationship between generated and training features. Our study focuses on understanding the reasoning behind image formation through denoising trajectory of diffusion model and subsequently prototype explainability with faithfulness analysis. Experimental analysis shows that EPPNet achieves the highest faithfulness (with score 0.1534), offering more reliable insights, and explainability into the generative process. The results highlight that diffusion models can be made more transparent and trustworthy through faithfulness-based explanations, contributing to safer and more interpretable applications of generative AI in healthcare.
- Abstract(参考訳): 本研究では, 磁気共鳴画像(MRI)合成に焦点をあて, 医療画像の文脈における生成拡散モデルの説明可能性について検討した。
拡散モデルは、現実的な医療画像の生成において強い性能を示しているが、その内部決定過程はほとんど不透明である。
本稿では,ProtoPNet (PPNet), Enhanced ProtoPNet (EPPNet), ProtoPool といったプロトタイプベースの説明可能性手法が生成機能とトレーニング機能の関係をリンクする方法を分析する。
本研究は,拡散モデルの軌道をデノベートすることで画像形成の背後にある推論を理解すること,そして忠実度解析によるプロトタイプ説明可能性について考察する。
実験分析により、EPPNetは(スコア0.1534で)高い忠実度を達成し、より信頼性の高い洞察と生成過程の説明可能性を提供することが示された。
結果は、拡散モデルは忠実度に基づく説明を通じてより透明で信頼性の高いものにすることができ、医療における生成AIのより安全で解釈可能な応用に寄与することを示している。
関連論文リスト
- UbiQVision: Quantifying Uncertainty in XAI for Image Recognition [39.47298454012977]
SHAPの説明は、てんかんやアレタリック不確実性の存在下で不安定で信頼性が低い。
本研究はディリクレ後部サンプリングとデンプスター・シェーファー理論を用いて,これらの不安定な説明から生じる不確実性の定量化を行う。
論文 参考訳(メタデータ) (2025-12-23T11:57:34Z) - Temporal Concept Dynamics in Diffusion Models via Prompt-Conditioned Interventions [70.87254264798341]
PCIは、拡散時間を通して概念力学を解析するためのトレーニング不要でモデルに依存しないフレームワークである。
拡散モデルにまたがる様々な時間的挙動を明らかにしており、同じ概念タイプであっても、軌道の特定の位相は特定の概念に好適である。
論文 参考訳(メタデータ) (2025-12-09T11:05:08Z) - Causal Disentanglement for Robust Long-tail Medical Image Generation [80.15257897500578]
そこで本研究では,病的特徴と構造的特徴を独立に生成する新しい医用画像生成フレームワークを提案する。
本稿では,病理所見から導かれる拡散モデルを用いて病理像をモデル化し,種々の対物画像の生成を可能にする。
論文 参考訳(メタデータ) (2025-04-20T01:54:18Z) - Diffusion Models for conditional MRI generation [0.0]
脳磁気共鳴画像(MRI)生成のための潜時拡散モデル(LDM)を提案する。
生成画像の品質を評価するために、Fr'echet Inception Distance(FID)とMulti-Scale Structure similarity Index(MS-SSIM)のメトリクスを使用した。
論文 参考訳(メタデータ) (2025-02-25T20:08:29Z) - Analyzing the Effect of $k$-Space Features in MRI Classification Models [0.0]
医用イメージングに適した説明可能なAI手法を開発した。
我々は、画像領域と周波数領域の両方にわたるMRIスキャンを分析する畳み込みニューラルネットワーク(CNN)を採用している。
このアプローチは、初期のトレーニング効率を高めるだけでなく、追加機能がモデル予測にどのように影響するかの理解を深めます。
論文 参考訳(メタデータ) (2024-09-20T15:43:26Z) - Controllable Mind Visual Diffusion Model [58.83896307930354]
脳信号の可視化は、人間の視覚システムとコンピュータビジョンモデルの間の重要なインターフェースとして機能する活発な研究領域として登場した。
我々は、制御可能なマインドビジュアルモデル拡散(CMVDM)と呼ばれる新しいアプローチを提案する。
CMVDMは属性アライメントとアシスタントネットワークを用いてfMRIデータから意味情報とシルエット情報を抽出する。
そして、制御モデルを利用して抽出した情報を画像合成に活用し、セマンティクスやシルエットの観点から視覚刺激によく似た画像を生成する。
論文 参考訳(メタデータ) (2023-05-17T11:36:40Z) - Trade-offs in Fine-tuned Diffusion Models Between Accuracy and
Interpretability [5.865936619867771]
生成拡散モデルにおける従来の計測値とモデル解釈可能性による画像の忠実度との間に連続的なトレードオフが生じる。
我々は、真に解釈可能な生成モデルを開発するための設計原則のセットを提示する。
論文 参考訳(メタデータ) (2023-03-31T09:11:26Z) - Visual Interpretable and Explainable Deep Learning Models for Brain
Tumor MRI and COVID-19 Chest X-ray Images [0.0]
我々は、ディープニューラルネットワークが医療画像をどのように分析するかを照らすための属性手法を評価する。
我々は近年の深層畳み込みニューラルネットワークモデルによる脳腫瘍MRIと新型コロナウイルス胸部X線データセットからの予測を属性とした。
論文 参考訳(メタデータ) (2022-08-01T16:05:14Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。