論文の概要: Class-N-Diff: Classification-Induced Diffusion Model Can Make Fair Skin Cancer Diagnosis
- arxiv url: http://arxiv.org/abs/2510.16887v1
- Date: Sun, 19 Oct 2025 15:37:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.194214
- Title: Class-N-Diff: Classification-Induced Diffusion Model Can Make Fair Skin Cancer Diagnosis
- Title(参考訳): クラスN-Diff:分類誘発拡散モデルにより皮膚がんの公平な診断が可能に
- Authors: Nusrat Munia, Abdullah Imran,
- Abstract要約: 皮膚内視鏡画像の生成と分類を同時に行うために,分類誘導拡散モデル,すなわちクラスN-ディフを提案する。
我々のクラス-N-ディフモデルは拡散モデルに分類器を統合し、そのクラス条件に基づいて画像生成を誘導する。
このクラス-N-Diffのユニークな統合により、拡散モデルに基づく合成皮膚画像生成の品質と有用性を向上する堅牢なツールとなる。
- 参考スコア(独自算出の注目度): 0.790660895390689
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models, especially Diffusion Models, have demonstrated remarkable capability in generating high-quality synthetic data, including medical images. However, traditional class-conditioned generative models often struggle to generate images that accurately represent specific medical categories, limiting their usefulness for applications such as skin cancer diagnosis. To address this problem, we propose a classification-induced diffusion model, namely, Class-N-Diff, to simultaneously generate and classify dermoscopic images. Our Class-N-Diff model integrates a classifier within a diffusion model to guide image generation based on its class conditions. Thus, the model has better control over class-conditioned image synthesis, resulting in more realistic and diverse images. Additionally, the classifier demonstrates improved performance, highlighting its effectiveness for downstream diagnostic tasks. This unique integration in our Class-N-Diff makes it a robust tool for enhancing the quality and utility of diffusion model-based synthetic dermoscopic image generation. Our code is available at https://github.com/Munia03/Class-N-Diff.
- Abstract(参考訳): 生成モデル、特に拡散モデルは、医用画像を含む高品質な合成データを生成する際、顕著な能力を示した。
しかし、従来のクラス条件生成モデルは、特定の医学カテゴリを正確に表現するイメージを生成するのに苦労し、皮膚がんの診断のような応用にその有用性を制限している。
この問題に対処するために,分類誘導拡散モデル(Class-N-Diff)を提案する。
我々のクラス-N-ディフモデルは拡散モデルに分類器を統合し、そのクラス条件に基づいて画像生成を誘導する。
このように、モデルはクラス条件の画像合成をよりよく制御し、より現実的で多様な画像を生み出す。
さらに、この分類器は性能の向上を示し、下流診断タスクの有効性を強調している。
このクラス-N-Diffのユニークな統合により、拡散モデルに基づく合成皮膚画像生成の品質と有用性を向上する堅牢なツールとなる。
私たちのコードはhttps://github.com/Munia03/Class-N-Diff.comから入手可能です。
関連論文リスト
- Conditional Diffusion Models are Medical Image Classifiers that Provide Explainability and Uncertainty for Free [0.7624308578421438]
本研究は,2次元医用画像分類のためのクラス条件拡散モデルの可能性を初めて探求するものである。
そこで我々は,医療拡散分類器の性能向上を図るために,新しい多数決方式を開発した。
CheXpertとISICのメラノーマ皮膚がんデータセットの実験は、基礎と訓練されたスクラッチ拡散モデルが競争力を発揮することを示した。
論文 参考訳(メタデータ) (2025-02-06T00:37:21Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
我々は,脳MRIと胸部X線による3つの時系列的ベンチマークデータセットを用いて,対物画像生成法について検討した。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - An Ordinal Diffusion Model for Generating Medical Images with Different Severity Levels [6.622091932474424]
クラス間における推定ノイズ画像の順序関係を制御できる順序拡散モデル(ODM)を提案する。
複数の重度クラスの網膜および内視鏡像を作製し,本モデルの有効性を実験的に評価した。
論文 参考訳(メタデータ) (2024-03-01T11:20:22Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Class-Prototype Conditional Diffusion Model with Gradient Projection for Continual Learning [20.175586324567025]
破滅的な忘れ方を減らすことは、継続的な学習における重要なハードルである。
大きな問題は、生成したデータの品質がオリジナルのものと比べて低下することである。
本稿では,ジェネレータにおける画像品質を向上させる連続学習のためのGRに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-10T17:39:42Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。