論文の概要: Noise-Consistent Siamese-Diffusion for Medical Image Synthesis and Segmentation
- arxiv url: http://arxiv.org/abs/2505.06068v1
- Date: Fri, 09 May 2025 14:07:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.288019
- Title: Noise-Consistent Siamese-Diffusion for Medical Image Synthesis and Segmentation
- Title(参考訳): 医用画像合成とセグメンテーションのためのノイズ耐性シームズ拡散
- Authors: Kunpeng Qiu, Zhiqiang Gao, Zhiying Zhou, Mingjie Sun, Yongxin Guo,
- Abstract要約: 本稿では,Mask-Diffusion と Image-Diffusion を組み合わせた新しい2成分モデルであるSiamese-Diffusionを紹介する。
トレーニング中、これらのコンポーネント間でノイズ一貫性損失を導入し、マスク拡散の形態的忠実度を高める。
- 参考スコア(独自算出の注目度): 9.795456238314825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has revolutionized medical image segmentation, yet its full potential remains constrained by the paucity of annotated datasets. While diffusion models have emerged as a promising approach for generating synthetic image-mask pairs to augment these datasets, they paradoxically suffer from the same data scarcity challenges they aim to mitigate. Traditional mask-only models frequently yield low-fidelity images due to their inability to adequately capture morphological intricacies, which can critically compromise the robustness and reliability of segmentation models. To alleviate this limitation, we introduce Siamese-Diffusion, a novel dual-component model comprising Mask-Diffusion and Image-Diffusion. During training, a Noise Consistency Loss is introduced between these components to enhance the morphological fidelity of Mask-Diffusion in the parameter space. During sampling, only Mask-Diffusion is used, ensuring diversity and scalability. Comprehensive experiments demonstrate the superiority of our method. Siamese-Diffusion boosts SANet's mDice and mIoU by 3.6% and 4.4% on the Polyps, while UNet improves by 1.52% and 1.64% on the ISIC2018. Code is available at GitHub.
- Abstract(参考訳): 深層学習は医療画像のセグメンテーションに革命をもたらしたが、その潜在能力は注釈付きデータセットの質によって制限されている。
拡散モデルは、これらのデータセットを増やすために合成画像マスクペアを生成するための有望なアプローチとして現れてきたが、彼らはパラドックス的に、彼らが緩和しようとしているデータ不足の課題に悩まされている。
従来のマスクのみのモデルでは、モルフォロジーの複雑さを適切に捉えることができないため、しばしば低忠実な画像が得られるため、セグメンテーションモデルの堅牢性と信頼性を著しく損なう可能性がある。
この制限を緩和するために,マスク拡散とイメージ拡散からなる新しい二重成分モデルであるシームズ拡散を導入する。
トレーニング中,パラメータ空間におけるマスク拡散の形態的忠実度を高めるために,これらの成分間でノイズ一貫性損失を導入する。
サンプリング中は、多様性とスケーラビリティを確保するため、Mask-Diffusionのみを使用する。
総合的な実験により,本手法の優位性を実証した。
Siamese-DiffusionはSANetのmDiceとmIoUを3.6%、Polypsは4.4%、UNetは1.52%、ISIC2018では1.64%向上している。
コードはGitHubで入手できる。
関連論文リスト
- CoSimGen: Controllable Diffusion Model for Simultaneous Image and Mask Generation [1.9393128408121891]
既存の生成モデルは、高品質で同時画像マスク生成の必要性に対処できない。
本稿では,同時画像生成とマスク生成を同時に行うための拡散型フレームワークであるCoSimGenを提案する。
CoSimGenはすべてのデータセットで最先端のパフォーマンスを達成し、データセットで0.11、LPIPSで0.53の最低KIDを達成した。
論文 参考訳(メタデータ) (2025-03-25T13:48:22Z) - Diffusion Prism: Enhancing Diversity and Morphology Consistency in Mask-to-Image Diffusion [4.0301593672451]
Diffusion Prismは、バイナリマスクを現実的で多様なサンプルに変換する、トレーニング不要のフレームワークである。
少量の人工ノイズが画像デノゲーションプロセスに大きく役立つことを探る。
論文 参考訳(メタデータ) (2025-01-01T20:04:25Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
我々は,脳MRIと胸部X線による3つの時系列的ベンチマークデータセットを用いて,対物画像生成法について検討した。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - DiffuseExpand: Expanding dataset for 2D medical image segmentation using
diffusion models [5.822451422344051]
DPMを用いた2次元医用画像分割のためのデータセット拡張のためのDiffuseExpandを提案する。
DPMは、ジェネレーティブ・アドバイサル・ネットワークよりも強力な画像合成性能を示している。
COVID-19とCGMH Pelvisデータセットの比較およびアブレーション実験により,DiffuseExpandの有効性が示された。
論文 参考訳(メタデータ) (2023-04-26T09:55:12Z) - DDS2M: Self-Supervised Denoising Diffusion Spatio-Spectral Model for
Hyperspectral Image Restoration [103.79030498369319]
ハイパースペクトル画像復元のための自己教師付き拡散モデルを提案する。
textttDDS2Mは、既存の拡散法と比較して、より強力な一般化能力を持っている。
HSIのノイズ除去、ノイズ除去、様々なHSIの超解像実験は、既存のタスク固有状態よりもtextttDDS2Mの方が優れていることを示した。
論文 参考訳(メタデータ) (2023-03-12T14:57:04Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。