論文の概要: An Interpretable Local Editing Model for Counterfactual Medical Image Generation
- arxiv url: http://arxiv.org/abs/2603.00423v1
- Date: Sat, 28 Feb 2026 02:48:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.183789
- Title: An Interpretable Local Editing Model for Counterfactual Medical Image Generation
- Title(参考訳): 医療画像生成のための解釈可能な局所編集モデル
- Authors: Hyungi Min, Taeseung You, Hangyeul Lee, Yeongjae Cho, Sungzoon Cho,
- Abstract要約: InstructX2Xは、Regional-Specific Editingを特徴とする反ファクトな医療画像生成のための、解釈可能な新しいローカル編集モデルである。
本モデルでは,高画質の胸部X線画像と解釈可能な説明が得られた。
- 参考スコア(独自算出の注目度): 11.263626235904995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual medical image generation have emerged as a critical tool for enhancing AI-driven systems in medical domain by answering "what-if" questions. However, existing approaches face two fundamental limitations: First, they fail to prevent unintended modifications, resulting collateral changes in demographic attributes when only disease features should be affected. Second, they lack interpretability in their editing process, which significantly limits their utility in real-world medical applications. To address these limitations, we present InstructX2X, a novel interpretable local editing model for counterfactual medical image generation featuring Region-Specific Editing. This approach restricts modifications to specific regions, effectively preventing unintended changes while simultaneously providing a Guidance Map that offers inherently interpretable visual explanations of the editing process. Additionally, we introduce MIMIC-EDIT-INSTRUCTION, a dataset for counterfactual medical image generation derived from expert-verified medical VQA pairs. Through extensive experiments, InstructX2X achieve state-of-the-art performance across all major evaluation metrics. Our model successfully generates high-quality counterfactual chest X-ray images along with interpretable explanations.
- Abstract(参考訳): 医療領域におけるAI駆動システムを強化する重要なツールとして、対物医用画像生成が登場している。
しかし、既存のアプローチは2つの基本的な制限に直面している。
第二に、編集プロセスにおける解釈可能性に欠けており、現実世界の医療アプリケーションでの利用を著しく制限している。
InstructX2Xは、地域特化編集を特徴とする対物医用画像生成のための、新しい解釈可能な局所編集モデルである。
このアプローチは特定の領域への変更を制限し、意図しない変更を効果的に防止し、同時に編集プロセスの本質的に解釈可能な視覚的説明を提供するガイダンスマップを提供する。
さらに,専門家が検証した医療用VQAペアから作成した医療画像生成のためのデータセットであるMIMIC-EDIT-INSTRUCTIONを導入する。
広範な実験を通じて、InstructX2Xはすべての主要な評価指標で最先端のパフォーマンスを達成する。
本モデルでは,高画質の胸部X線画像と解釈可能な説明が得られた。
関連論文リスト
- MedREK: Retrieval-Based Editing for Medical LLMs with Key-Aware Prompts [70.64143198545031]
本稿では,情報誘導のための注目型プロンプトエンコーダと正確なマッチングのための共有クエリキーモジュールを統合した検索ベースの編集フレームワークであるMedREKを提案する。
各種医用ベンチマークの結果から,MedREKは異なるコアメトリクス間で優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-10-15T12:50:33Z) - MedEBench: Diagnosing Reliability in Text-Guided Medical Image Editing [14.713122814049806]
MedEBenchはテキスト誘導医療画像編集における信頼性の診断を目的としたベンチマークである。
MedEBenchは、70の異なる編集タスクと13の解剖学的領域を含む、1,182の臨床試験済みイメージプロンプトペアで構成されている。
論文 参考訳(メタデータ) (2025-06-02T17:43:01Z) - Causal Disentanglement for Robust Long-tail Medical Image Generation [80.15257897500578]
そこで本研究では,病的特徴と構造的特徴を独立に生成する新しい医用画像生成フレームワークを提案する。
本稿では,病理所見から導かれる拡散モデルを用いて病理像をモデル化し,種々の対物画像の生成を可能にする。
論文 参考訳(メタデータ) (2025-04-20T01:54:18Z) - Interactive Tumor Progression Modeling via Sketch-Based Image Editing [54.47725383502915]
腫瘍進行編集のためのスケッチベース拡散モデルであるSkEditTumorを提案する。
スケッチを構造的先行として活用することにより,構造的整合性と視覚的リアリズムを維持しつつ,腫瘍領域の精密な修正を可能にする。
私たちのコントリビューションには、医用画像編集のための拡散モデルとスケッチの新たな統合、腫瘍進行の可視化のきめ細かい制御、複数のデータセットにわたる広範な検証などが含まれています。
論文 参考訳(メタデータ) (2025-03-10T00:04:19Z) - MedEdit: Counterfactual Diffusion-based Image Editing on Brain MRI [2.4557713325522914]
医用画像編集のための条件拡散モデルであるMedEditを提案する。
MedEditは、疾患効果のモデリングとオリジナルのスキャンの完全性を維持するバランスを保ちながら、特定の領域の病理を誘導する。
本研究は, 現実的, 臨床的に有用な画像編集ツールの開発をさらに進めるために, 対物画像編集研究を可能にすると信じている。
論文 参考訳(メタデータ) (2024-07-21T21:19:09Z) - RadEdit: stress-testing biomedical vision models via diffusion image editing [45.43408333243842]
本研究は、生成画像編集を用いて、バイオメディカルビジョンモデルのデータセットシフトをシミュレートし、障害モードを診断することを提案する。
既存の編集手法は、疾患や治療介入の共起によって学習された、望ましくない変化をもたらす可能性がある。
そこで我々は,複数のマスクを用いた新しい編集手法RadEditを導入し,変更を制約し,編集画像の一貫性を確保する。
論文 参考訳(メタデータ) (2023-12-20T09:27:41Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - Variational Topic Inference for Chest X-Ray Report Generation [102.04931207504173]
医療画像のレポート生成は、作業負荷を減らし、臨床実習における診断を支援することを約束する。
近年の研究では、ディープラーニングモデルが自然画像のキャプションに成功していることが示された。
本稿では,自動レポート生成のための変分トピック推論を提案する。
論文 参考訳(メタデータ) (2021-07-15T13:34:38Z) - Uncertainty-Guided Progressive GANs for Medical Image Translation [37.95176881950121]
画像から画像への翻訳は、様々な医療画像のタスクに取り組む上で重要な役割を担っている。
画像から画像への変換のための不確実性誘導型プログレッシブラーニング手法を提案する。
医用画像翻訳の課題3つの課題に対して,本モデルの有効性を実証した。
論文 参考訳(メタデータ) (2021-06-29T16:26:12Z) - Cross Chest Graph for Disease Diagnosis with Structural Relational
Reasoning [2.7148274921314615]
X線画像のコンピュータ診断において位置病変は重要である。
一般に弱教師付き手法はX線像の特性を考慮できなかった。
自動病変検出の性能を向上させるCross-chest Graph (CCG)を提案する。
論文 参考訳(メタデータ) (2021-01-22T08:24:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。