論文の概要: LeFusion: Controllable Pathology Synthesis via Lesion-Focused Diffusion Models
- arxiv url: http://arxiv.org/abs/2403.14066v2
- Date: Sat, 05 Oct 2024 03:55:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-08 13:10:29.221027
- Title: LeFusion: Controllable Pathology Synthesis via Lesion-Focused Diffusion Models
- Title(参考訳): LeFusion: Lesion-Focused Diffusion Modelによる制御可能な病態合成
- Authors: Hantao Zhang, Yuhe Liu, Jiancheng Yang, Shouhong Wan, Xinyuan Wang, Wei Peng, Pascal Fua,
- Abstract要約: 実際の臨床実践から得られた患者データは、しばしばデータ不足と長い尾の不均衡に悩まされる。
本研究では,病変のない画像から病変を含む画像分割ペアを生成することで,これらの課題に対処する。
レフュージョン生成データにより、最先端セグメンテーションモデルの性能が大幅に向上する。
- 参考スコア(独自算出の注目度): 42.922303491557244
- License:
- Abstract: Patient data from real-world clinical practice often suffers from data scarcity and long-tail imbalances, leading to biased outcomes or algorithmic unfairness. This study addresses these challenges by generating lesion-containing image-segmentation pairs from lesion-free images. Previous efforts in medical imaging synthesis have struggled with separating lesion information from background, resulting in low-quality backgrounds and limited control over the synthetic output. Inspired by diffusion-based image inpainting, we propose LeFusion, a lesion-focused diffusion model. By redesigning the diffusion learning objectives to focus on lesion areas, we simplify the learning process and improve control over the output while preserving high-fidelity backgrounds by integrating forward-diffused background contexts into the reverse diffusion process. Additionally, we tackle two major challenges in lesion texture synthesis: 1) multi-peak and 2) multi-class lesions. We introduce two effective strategies: histogram-based texture control and multi-channel decomposition, enabling the controlled generation of high-quality lesions in difficult scenarios. Furthermore, we incorporate lesion mask diffusion, allowing control over lesion size, location, and boundary, thus increasing lesion diversity. Validated on 3D cardiac lesion MRI and lung nodule CT datasets, LeFusion-generated data significantly improves the performance of state-of-the-art segmentation models, including nnUNet and SwinUNETR. Code and model are available at https://github.com/M3DV/LeFusion.
- Abstract(参考訳): 実際の臨床実践の患者データは、しばしばデータ不足と長い尾の不均衡に悩まされ、バイアスのある結果やアルゴリズム上の不公平につながる。
本研究では,病変のない画像から病変を含む画像分割ペアを生成することで,これらの課題に対処する。
医用画像合成におけるこれまでの取り組みは、病変情報を背景から切り離すことに苦慮しており、結果として、低品質の背景と合成出力の制限が生じる。
拡散に基づく画像の塗布に着想を得て,病変中心の拡散モデルLeFusionを提案する。
拡散学習の目的を再設計し、病変領域に焦点をあてることで、学習プロセスを簡素化し、前向きの背景コンテキストを逆拡散プロセスに統合することにより、高忠実度背景を保ちながら出力の制御を改善する。
さらに, 病変のテクスチャ合成における2つの大きな課題に取り組む。
1)マルチピークと
2) 多発性病変。
ヒストグラムに基づくテクスチャ制御と多チャンネル分解という2つの効果的な手法を導入する。
さらに,病変マスク拡散を取り入れ,病変の大きさ,位置,境界を制御し,病変の多様性を増大させる。
3次元心病変MRIと肺結節CTデータセットで検証されたLeFusion生成データは,nnUNetやSwinUNETRなどの最先端セグメンテーションモデルの性能を大幅に向上させる。
コードとモデルはhttps://github.com/M3DV/LeFusion.comで入手できる。
関連論文リスト
- Diffusion based multi-domain neuroimaging harmonization method with preservation of anatomical details [0.0]
マルチセンター・ニューロイメージング研究は、サイト間のバッチ差による技術的変動に直面している。
GAN(Generative Adversarial Networks)は、画像調和タスクに対処するための重要な手法である。
我々は神経画像調和のための拡散モデルの有効性を評価した。
論文 参考訳(メタデータ) (2024-09-01T18:54:00Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - FDiff-Fusion:Denoising diffusion fusion network based on fuzzy learning for 3D medical image segmentation [21.882697860720803]
3次元医用画像分割のためのファジィ学習に基づく拡散融合ネットワーク(FDiff-Fusion)を提案する。
従来のU-Netネットワークにデノナイズ拡散モデルを統合することにより、入力された医用画像からリッチなセマンティック情報を効果的に抽出することができる。
その結果、FDiff-Fusionは2つのデータセット上でDiceスコアとHD95距離を大幅に改善することがわかった。
論文 参考訳(メタデータ) (2024-07-22T02:27:01Z) - Deformation-Recovery Diffusion Model (DRDM): Instance Deformation for Image Manipulation and Synthesis [13.629617915974531]
変形-回復拡散モデル (DRDM) は, 変形拡散と回復に基づく拡散モデルである。
DRDMは、不合理な変形成分の回復を学ぶために訓練され、ランダムに変形した各画像を現実的な分布に復元する。
心MRIおよび肺CTによる実験結果から,DRDMは多種多様(10%以上の画像サイズ変形スケール)の変形を生じさせることが示された。
論文 参考訳(メタデータ) (2024-07-10T01:26:48Z) - EMIT-Diff: Enhancing Medical Image Segmentation via Text-Guided
Diffusion Model [4.057796755073023]
EMIT-Diffと呼ばれる医用画像合成のための制御可能な拡散モデルを開発した。
近年の拡散確率モデルを利用して、現実的で多様な合成医用画像データを生成する。
提案手法では, 合成試料が医療上の制約に適合することを確実にする。
論文 参考訳(メタデータ) (2023-10-19T16:18:02Z) - ArSDM: Colonoscopy Images Synthesis with Adaptive Refinement Semantic
Diffusion Models [69.9178140563928]
大腸内視鏡検査は臨床診断や治療に不可欠である。
注釈付きデータの不足は、既存の手法の有効性と一般化を制限する。
本稿では, 下流作業に有用な大腸内視鏡画像を生成するために, 適応Refinement Semantic Diffusion Model (ArSDM)を提案する。
論文 参考訳(メタデータ) (2023-09-03T07:55:46Z) - DiffMIC: Dual-Guidance Diffusion Network for Medical Image
Classification [32.67098520984195]
一般医用画像分類のための拡散モデル(DiffMIC)を提案する。
実験の結果,DiffMICは最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2023-03-19T09:15:45Z) - SinDiffusion: Learning a Diffusion Model from a Single Natural Image [159.4285444680301]
SinDiffusionは1つの自然な画像からパッチの内部分布を捉えるためにデノナイズ拡散モデルを利用する。
SinDiffusionは、2つのコア設計に基づいている。まず、SinDiffusionは、段階的にスケールが成長する複数のモデルではなく、1つのスケールで1つのモデルで訓練されている。
第2に,拡散ネットワークのパッチレベルの受容領域は,画像のパッチ統計を捉える上で重要かつ効果的であることを示す。
論文 参考訳(メタデータ) (2022-11-22T18:00:03Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。