論文の概要: LesionGen: A Concept-Guided Diffusion Model for Dermatology Image Synthesis
- arxiv url: http://arxiv.org/abs/2507.23001v1
- Date: Wed, 30 Jul 2025 18:07:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:08.515475
- Title: LesionGen: A Concept-Guided Diffusion Model for Dermatology Image Synthesis
- Title(参考訳): LesionGen: 皮膚画像合成のための概念誘導拡散モデル
- Authors: Jamil Fayyad, Nourhan Bayasi, Ziyang Yu, Homayoun Najjaran,
- Abstract要約: 皮膚画像合成のためのT2I-DPMフレームワークであるLesionGenを紹介する。
LesionGenは、専門家のアノテーションと疑似生成された概念誘導レポートから派生した、構造化された、概念に富んだ皮膚学のキャプションに基づいて訓練されている。
以上の結果から, 合成データセットのみにトレーニングされたモデルが, 実画像にトレーニングされたモデルに匹敵する分類精度を達成できることが示唆された。
- 参考スコア(独自算出の注目度): 4.789822624169502
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep learning models for skin disease classification require large, diverse, and well-annotated datasets. However, such resources are often limited due to privacy concerns, high annotation costs, and insufficient demographic representation. While text-to-image diffusion probabilistic models (T2I-DPMs) offer promise for medical data synthesis, their use in dermatology remains underexplored, largely due to the scarcity of rich textual descriptions in existing skin image datasets. In this work, we introduce LesionGen, a clinically informed T2I-DPM framework for dermatology image synthesis. Unlike prior methods that rely on simplistic disease labels, LesionGen is trained on structured, concept-rich dermatological captions derived from expert annotations and pseudo-generated, concept-guided reports. By fine-tuning a pretrained diffusion model on these high-quality image-caption pairs, we enable the generation of realistic and diverse skin lesion images conditioned on meaningful dermatological descriptions. Our results demonstrate that models trained solely on our synthetic dataset achieve classification accuracy comparable to those trained on real images, with notable gains in worst-case subgroup performance. Code and data are available here.
- Abstract(参考訳): 皮膚疾患分類のための深層学習モデルは、大きく、多様で、注釈の付いたデータセットを必要とする。
しかし、プライバシー上の懸念やアノテーションのコスト、人口統計学的な表現が不十分なため、そのようなリソースは制限されることが多い。
テキスト・ツー・イメージ拡散確率モデル(T2I-DPMs)は医療データ合成の可能性を約束するが、皮膚科学におけるそれらの使用は、主に既存の皮膚画像データセットにリッチなテキスト記述が不足しているため、未発見のままである。
本稿では,皮膚画像合成のためのT2I-DPMフレームワークであるLesionGenを紹介する。
単純性疾患ラベルに依存する従来の方法とは異なり、LesionGenは専門家アノテーションと擬似的に生成された概念誘導レポートから派生した、構造化された、概念に富んだ皮膚科のキャプションに基づいて訓練されている。
これらの高品質な画像キャプチャー対に事前訓練した拡散モデルを微調整することにより、有意義な皮膚学的記述に基づいて、現実的で多様な皮膚病変画像を生成することができる。
以上の結果から,合成データセットのみにトレーニングしたモデルが,実画像にトレーニングしたモデルに匹敵する分類精度を達成できることが示唆された。
コードとデータはここにある。
関連論文リスト
- Causal Disentanglement for Robust Long-tail Medical Image Generation [80.15257897500578]
そこで本研究では,病的特徴と構造的特徴を独立に生成する新しい医用画像生成フレームワークを提案する。
本稿では,病理所見から導かれる拡散モデルを用いて病理像をモデル化し,種々の対物画像の生成を可能にする。
論文 参考訳(メタデータ) (2025-04-20T01:54:18Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
我々は,脳MRIと胸部X線による3つの時系列的ベンチマークデータセットを用いて,対物画像生成法について検討した。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - FairSkin: Fair Diffusion for Skin Disease Image Generation [54.29840149709033]
拡散モデル (DM) は, 合成医用画像の生成において主要な手法となっているが, 臨界二倍偏差に悩まされている。
このようなバイアスを3段階のリサンプリング機構によって緩和する新しいDMフレームワークであるFairSkinを提案する。
本手法は, 画像の多様性と品質を著しく向上させ, 臨床環境における皮膚疾患の検出精度の向上に寄与する。
論文 参考訳(メタデータ) (2024-10-29T21:37:03Z) - MediSyn: A Generalist Text-Guided Latent Diffusion Model For Diverse Medical Image Synthesis [4.541407789437896]
MediSynは6つの専門医と10種類の画像から合成画像を生成することができるテキスト誘導潜在拡散モデルである。
合成画像と実画像との直接比較により,本モデルが新規画像の合成を行い,患者のプライバシを重要視する可能性が確認された。
本研究は,一般画像生成モデルが医学におけるアルゴリズム研究と開発を加速する大きな可能性を浮き彫りにした。
論文 参考訳(メタデータ) (2024-05-16T04:28:44Z) - Learned representation-guided diffusion models for large-image generation [58.192263311786824]
自己教師型学習(SSL)からの埋め込みを条件とした拡散モデルを訓練する新しいアプローチを導入する。
我々の拡散モデルは、これらの特徴を高品質な病理組織学およびリモートセンシング画像に投影することに成功した。
実画像のバリエーションを生成して実データを増やすことにより、パッチレベルおよび大規模画像分類タスクの下流精度が向上する。
論文 参考訳(メタデータ) (2023-12-12T14:45:45Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Improving dermatology classifiers across populations using images
generated by large diffusion models [4.291548465691441]
大規模なテキスト・画像拡散モデルであるDALL$cdot$E2は皮膚疾患の光写実画像を生成することができることを示す。
DALL$cdot$E2生成合成画像によるトレーニングデータの拡大は、皮膚疾患の全体的分類、特に表現不足群の分類を改善することを実証した。
論文 参考訳(メタデータ) (2022-11-23T23:53:03Z) - Analysis of skin lesion images with deep learning [0.0]
内視鏡画像の分類における美術の現状を評価します。
ImageNetデータセットに事前トレーニングされた様々なディープニューラルネットワークアーキテクチャは、組み合わせたトレーニングデータセットに適合する。
皮膚病変の8クラスの検出のためのこれらのモデルの性能と適用性を検討する。
論文 参考訳(メタデータ) (2021-01-11T10:58:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。