論文の概要: Conditional Diffusion Models are Medical Image Classifiers that Provide Explainability and Uncertainty for Free
- arxiv url: http://arxiv.org/abs/2502.03687v1
- Date: Thu, 06 Feb 2025 00:37:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:33:34.630521
- Title: Conditional Diffusion Models are Medical Image Classifiers that Provide Explainability and Uncertainty for Free
- Title(参考訳): 条件拡散モデルとは, 説明可能性と不確実性を提供する医用画像分類器である
- Authors: Gian Mario Favero, Parham Saremi, Emily Kaczmarek, Brennan Nichyporuk, Tal Arbel,
- Abstract要約: 本研究は,2次元医用画像分類のためのクラス条件拡散モデルの可能性を初めて探求するものである。
そこで我々は,医療拡散分類器の性能向上を図るために,新しい多数決方式を開発した。
CheXpertとISICのメラノーマ皮膚がんデータセットの実験は、基礎と訓練されたスクラッチ拡散モデルが競争力を発揮することを示した。
- 参考スコア(独自算出の注目度): 0.7624308578421438
- License:
- Abstract: Discriminative classifiers have become a foundational tool in deep learning for medical imaging, excelling at learning separable features of complex data distributions. However, these models often need careful design, augmentation, and training techniques to ensure safe and reliable deployment. Recently, diffusion models have become synonymous with generative modeling in 2D. These models showcase robustness across a range of tasks including natural image classification, where classification is performed by comparing reconstruction errors across images generated for each possible conditioning input. This work presents the first exploration of the potential of class conditional diffusion models for 2D medical image classification. First, we develop a novel majority voting scheme shown to improve the performance of medical diffusion classifiers. Next, extensive experiments on the CheXpert and ISIC Melanoma skin cancer datasets demonstrate that foundation and trained-from-scratch diffusion models achieve competitive performance against SOTA discriminative classifiers without the need for explicit supervision. In addition, we show that diffusion classifiers are intrinsically explainable, and can be used to quantify the uncertainty of their predictions, increasing their trustworthiness and reliability in safety-critical, clinical contexts. Further information is available on our project page: https://faverogian.github.io/med-diffusion-classifier.github.io/
- Abstract(参考訳): 識別分類器は、複雑なデータ分布の分離可能な特徴を学習するのに優れており、医用画像の深層学習の基盤となっている。
しかしながら、これらのモデルは、安全で信頼性の高いデプロイメントを保証するために、注意深い設計、拡張、トレーニングのテクニックを必要とすることが多い。
近年,拡散モデルと2次元生成モデルとの同義語化が進んでいる。
これらのモデルは、自然画像分類を含む様々なタスクにおいて堅牢性を示し、各条件入力毎に生成された画像間で再構成誤差を比較して分類を行う。
本研究は,2次元医用画像分類のためのクラス条件拡散モデルの可能性を初めて探求するものである。
まず,医療拡散分類器の性能向上を目的とした新しい多数決方式を提案する。
次に、CheXpertおよびISICメラノーマ皮膚癌データセットに関する広範な実験により、基礎および訓練されたスクラッチ拡散モデルが、明示的な監督なしにSOTA識別分類器と競合する性能を発揮することを示した。
さらに,拡散分類器は本質的に説明可能であり,それらの予測の不確かさの定量化に利用でき,安全性・臨床的文脈における信頼性と信頼性を高めることができることを示す。
詳細はプロジェクトのページにある。 https://faverogian.github.io/med-diffusion-classifier.github.io/
関連論文リスト
- Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
大規模なデータセットのトレーニングによるスケーリングは、画像生成の品質と忠実度を高め、拡散モデルによる操作を可能にすることが示されている。
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
本研究は,異なる微調整方式と組み合わせた場合,様々なシナリオにおいて顕著な性能向上を示すものである。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - FairDiffusion: Enhancing Equity in Latent Diffusion Models via Fair Bayesian Perturbation [21.010861381369104]
本研究は,医療用テキスト・画像拡散モデルの公平性に関する総合的研究である。
FairDiffusion(フェアディフュージョン)は、画像生成品質と臨床特徴のセマンティックな相関の両面において公平性を高める、自己認識型潜伏拡散モデルである。
また、医療生成モデルの公正性を研究するための最初のデータセットであるFairGenMedを設計し、キュレートする。
論文 参考訳(メタデータ) (2024-12-29T06:33:37Z) - Mediffusion: Joint Diffusion for Self-Explainable Semi-Supervised Classification and Medical Image Generation [3.046689922445082]
共同拡散モデルに基づく説明可能な分類を伴う半教師あり学習のための新しい手法であるメディフフュージョンを導入する。
我々は,最近の半教師付き手法に匹敵する結果を得るとともに,より信頼性と正確な説明を提供する。
論文 参考訳(メタデータ) (2024-11-12T23:14:36Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Bridging Generative and Discriminative Models for Unified Visual
Perception with Diffusion Priors [56.82596340418697]
本稿では,豊富な生成前駆体を含む事前学習型安定拡散(SD)モデルと,階層的表現を統合可能な統一型ヘッド(Uヘッド)と,識別前駆体を提供する適応型専門家からなる,シンプルで効果的なフレームワークを提案する。
包括的調査では、異なる時間ステップで潜伏変数に隠された知覚の粒度や様々なU-netステージなど、バーマスの潜在的な特性が明らかになった。
有望な結果は,有望な学習者としての拡散モデルの可能性を示し,情報的かつ堅牢な視覚表現の確立にその意義を定めている。
論文 参考訳(メタデータ) (2024-01-29T10:36:57Z) - Certification of Deep Learning Models for Medical Image Segmentation [44.177565298565966]
ランダムな平滑化と拡散モデルに基づく医用画像のための認定セグメンテーションベースラインを初めて提示する。
この結果から,拡散確率モデルをデノナイズするパワーを活用することで,ランダムな平滑化の限界を克服できることが示唆された。
論文 参考訳(メタデータ) (2023-10-05T16:40:33Z) - DiffDis: Empowering Generative Diffusion Model with Cross-Modal
Discrimination Capability [75.9781362556431]
本稿では,拡散過程下での1つのフレームワークに,モダクティブと差別的事前学習を統一するDiffDisを提案する。
DiffDisは画像生成タスクと画像テキスト識別タスクの両方において単一タスクモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-18T05:03:48Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z) - DiffMIC: Dual-Guidance Diffusion Network for Medical Image
Classification [32.67098520984195]
一般医用画像分類のための拡散モデル(DiffMIC)を提案する。
実験の結果,DiffMICは最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2023-03-19T09:15:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。