論文の概要: XReal: Realistic Anatomy and Pathology-Aware X-ray Generation via Controllable Diffusion Model
- arxiv url: http://arxiv.org/abs/2403.09240v2
- Date: Tue, 22 Oct 2024 20:26:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:52:23.729429
- Title: XReal: Realistic Anatomy and Pathology-Aware X-ray Generation via Controllable Diffusion Model
- Title(参考訳): XReal: 可制御拡散モデルによる現実的解剖と病理認識X線生成
- Authors: Anees Ur Rehman Hashmi, Ibrahim Almakky, Mohammad Areeb Qazi, Santosh Sanjeev, Vijay Ram Papineni, Jagalpathy Jagdish, Mohammad Yaqub,
- Abstract要約: 大規模な生成モデルは、視覚的に魅力的な画像を生成するという印象的な能力を示している。
しかし、彼らは幻覚障害や解剖学的に不正確なアウトプットの発生に悩まされ続けている。
胸部X線画像を生成するための新しい制御可能な拡散モデルであるXRealを提案する。
- 参考スコア(独自算出の注目度): 0.7381551917607596
- License:
- Abstract: Large-scale generative models have demonstrated impressive capabilities in producing visually compelling images, with increasing applications in medical imaging. However, they continue to grapple with hallucination challenges and the generation of anatomically inaccurate outputs. These limitations are mainly due to the reliance on textual inputs and lack of spatial control over the generated images, hindering the potential usefulness of such models in real-life settings. In this work, we present XReal, a novel controllable diffusion model for generating realistic chest X-ray images through precise anatomy and pathology location control. Our lightweight method comprises an Anatomy Controller and a Pathology Controller to introduce spatial control over anatomy and pathology in a pre-trained Text-to-Image Diffusion Model, respectively, without fine-tuning the model. XReal outperforms state-of-the-art X-ray diffusion models in quantitative metrics and radiologists' ratings, showing significant gains in anatomy and pathology realism. Our model holds promise for advancing generative models in medical imaging, offering greater precision and adaptability while inviting further exploration in this evolving field. The code and pre-trained model weights are publicly available at https://github.com/BioMedIA-MBZUAI/XReal.
- Abstract(参考訳): 大規模生成モデルは、視覚的に魅力的な画像を生成するという印象的な能力を示し、医療画像の応用が増加している。
しかし、彼らは幻覚障害や解剖学的に不正確なアウトプットの発生に悩まされ続けている。
これらの制限は主に、テキスト入力への依存と生成された画像に対する空間制御の欠如によるものであり、実際の環境でのそのようなモデルの有用性を妨げている。
本稿では,胸部X線像を高精度な解剖学的,病理的位置制御により生成する新しい制御可能な拡散モデルXRealを提案する。
本手法は, 解剖学制御器と病理学制御器を用いて, 予め訓練したテキスト・画像拡散モデルにおいて, モデルを微調整することなく, 解剖学と病理学の空間制御を導入する。
XRealは、定量測定と放射線学者のレーティングにおいて最先端のX線拡散モデルより優れており、解剖学や病理学のリアリズムにおいて顕著な進歩を示している。
我々のモデルは、医療画像における生成モデルの発展を約束し、より精度と適応性を提供しながら、この進化する分野におけるさらなる探索を招いている。
コードと事前訓練されたモデルウェイトはhttps://github.com/BioMedIA-MBzuAI/XReal.comで公開されている。
関連論文リスト
- RadGazeGen: Radiomics and Gaze-guided Medical Image Generation using Diffusion Models [11.865553250973589]
RadGazeGenは、専門家の視線パターンと放射能特徴マップをテキストから画像への拡散モデルのコントロールとして統合するためのフレームワークである。
論文 参考訳(メタデータ) (2024-10-01T01:10:07Z) - Multi-Conditioned Denoising Diffusion Probabilistic Model (mDDPM) for Medical Image Synthesis [22.0080610434872]
アノテーションを用いた合成画像の制御生成フレームワークを提案する。
本手法は, 解剖学的に忠実に表現できる, 注記式肺CT画像を作成することができることを示す。
本実験は, この自然の制御された生成フレームワークが, ほぼすべての最先端画像生成モデルを超えることを実証した。
論文 参考訳(メタデータ) (2024-09-07T01:19:02Z) - Anatomically-Controllable Medical Image Generation with Segmentation-Guided Diffusion Models [11.835841459200632]
解剖学的に制御可能な医用画像生成を支援する拡散モデルに基づく手法を提案する。
また, ランダムマスクアブレーショントレーニングアルゴリズムを導入し, 解剖学的制約の組合せの条件付けを可能にする。
SegGuidedDiffは、生成した画像の忠実さを新たな最先端に到達して、解剖学的マスクを入力します。
論文 参考訳(メタデータ) (2024-02-07T19:35:09Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language
Models [60.437091462613544]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - Trade-offs in Fine-tuned Diffusion Models Between Accuracy and
Interpretability [5.865936619867771]
生成拡散モデルにおける従来の計測値とモデル解釈可能性による画像の忠実度との間に連続的なトレードオフが生じる。
我々は、真に解釈可能な生成モデルを開発するための設計原則のセットを提示する。
論文 参考訳(メタデータ) (2023-03-31T09:11:26Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - Multi-Domain Balanced Sampling Improves Out-of-Distribution
Generalization of Chest X-ray Pathology Prediction Models [67.2867506736665]
そこで本研究では, 簡単なバッチサンプリング手法を用いた胸部X線像の分布外一般化法を提案する。
複数のトレーニングデータセット間のバランスの取れたサンプリングは、バランスを取らずにトレーニングされたベースラインモデルよりもパフォーマンスが向上する。
論文 参考訳(メタデータ) (2021-12-27T15:28:01Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Evaluating the Clinical Realism of Synthetic Chest X-Rays Generated
Using Progressively Growing GANs [0.0]
胸部X線は多くの患者のワークアップに欠かせない道具である。
新たな診断ツールを開発するためには,ラベル付きデータの量を増やす必要がある。
これまでの研究は、イメージを合成してトレーニングデータを増強するクラス固有のGANを作成することで、これらの問題に対処しようとしてきた。
論文 参考訳(メタデータ) (2020-10-07T11:47:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。