論文の概要: Controllable Skin Synthesis via Lesion-Focused Vector Autoregression Model
- arxiv url: http://arxiv.org/abs/2508.19626v1
- Date: Wed, 27 Aug 2025 07:04:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.536135
- Title: Controllable Skin Synthesis via Lesion-Focused Vector Autoregression Model
- Title(参考訳): 病変焦点ベクトル自己回帰モデルによる可制御性皮膚合成
- Authors: Jiajun Sun, Zhen Yu, Siyuan Yan, Jason J. Ong, Zongyuan Ge, Lei Zhang,
- Abstract要約: この研究は、高忠実で臨床的に関連のある合成皮膚画像を生成する上で、制御可能な皮膚合成モデルの有効性を強調した。
本手法は7種類の病変のFIDスコア(平均0.74)を最大化し,従来のSOTA(State-of-the-art)を6.3%改善した。
- 参考スコア(独自算出の注目度): 23.122488283724433
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Skin images from real-world clinical practice are often limited, resulting in a shortage of training data for deep-learning models. While many studies have explored skin image synthesis, existing methods often generate low-quality images and lack control over the lesion's location and type. To address these limitations, we present LF-VAR, a model leveraging quantified lesion measurement scores and lesion type labels to guide the clinically relevant and controllable synthesis of skin images. It enables controlled skin synthesis with specific lesion characteristics based on language prompts. We train a multiscale lesion-focused Vector Quantised Variational Auto-Encoder (VQVAE) to encode images into discrete latent representations for structured tokenization. Then, a Visual AutoRegressive (VAR) Transformer trained on tokenized representations facilitates image synthesis. Lesion measurement from the lesion region and types as conditional embeddings are integrated to enhance synthesis fidelity. Our method achieves the best overall FID score (average 0.74) among seven lesion types, improving upon the previous state-of-the-art (SOTA) by 6.3%. The study highlights our controllable skin synthesis model's effectiveness in generating high-fidelity, clinically relevant synthetic skin images. Our framework code is available at https://github.com/echosun1996/LF-VAR.
- Abstract(参考訳): 実世界の臨床実践から得られた皮膚画像は、しばしば制限され、結果としてディープラーニングモデルのトレーニングデータが不足する。
多くの研究が皮膚画像合成について研究しているが、既存の方法では低画質の画像を生成することが多く、病変の位置やタイプを制御できない。
これらの制約に対処するため, LF-VARは, 定量的な病変測定スコアと病変型ラベルを利用して, 皮膚画像の臨床的かつ制御可能な合成を導出するモデルである。
言語プロンプトに基づいた特定の病変特性を持つ制御皮膚合成を可能にする。
我々は,VQVAE (Vector Quantized Variational Auto-Encoder) を訓練し,構造化トークン化のために画像を離散潜在表現に符号化する。
次に、トークン化表現で訓練されたVisual AutoRegressive (VAR) Transformerは、画像合成を容易にする。
病変領域および条件埋め込みとしての型からの病変測定を統合して合成忠実度を高める。
本手法は7種類の病変のFIDスコア(平均0.74)を最大化し,従来のSOTA(State-of-the-art)を6.3%改善した。
この研究は、高忠実で臨床的に関連のある合成皮膚画像を生成する上で、制御可能な皮膚合成モデルの有効性を強調した。
私たちのフレームワークコードはhttps://github.com/echosun1996/LF-VAR.comで公開されています。
関連論文リスト
- SynBrain: Enhancing Visual-to-fMRI Synthesis via Probabilistic Representation Learning [50.69448058071441]
視覚刺激が皮質反応にどのように変換されるかを理解することは、計算神経科学の基本的な課題である。
視覚的意味論から神経反応への変換をシミュレートする生成フレームワークであるSynBrainを提案する。
そこで本研究では,SynBrainが主観的視覚-fMRI符号化性能において最先端の手法を超越していることを示す。
論文 参考訳(メタデータ) (2025-08-14T03:01:05Z) - LesionGen: A Concept-Guided Diffusion Model for Dermatology Image Synthesis [4.789822624169502]
皮膚画像合成のためのT2I-DPMフレームワークであるLesionGenを紹介する。
LesionGenは、専門家のアノテーションと疑似生成された概念誘導レポートから派生した、構造化された、概念に富んだ皮膚学のキャプションに基づいて訓練されている。
以上の結果から, 合成データセットのみにトレーニングされたモデルが, 実画像にトレーニングされたモデルに匹敵する分類精度を達成できることが示唆された。
論文 参考訳(メタデータ) (2025-07-30T18:07:34Z) - S-SYNTH: Knowledge-Based, Synthetic Generation of Skin Images [2.79604239303318]
S-SYNTHは知識ベースで適応可能なオープンソーススキンシミュレーションフレームワークである。
我々は、解剖学的にインスパイアされた多層多層皮膚と成長する病変モデルを用いて、合成皮膚、3次元モデル、デジタル化された画像を生成する。
また, 合成データを用いて得られた結果は, 実際の皮膚画像と類似した傾向を示した。
論文 参考訳(メタデータ) (2024-07-31T23:16:29Z) - Scaling Laws of Synthetic Images for Model Training ... for Now [54.43596959598466]
本研究では, 合成画像のスケーリング法則について, テクスト・ツー・イメージ・モデルの現状から検討した。
合成画像は、CLIPトレーニングの実際の画像と似ているが、やや効果の低いスケーリング傾向を示す。
論文 参考訳(メタデータ) (2023-12-07T18:59:59Z) - ContraNeRF: Generalizable Neural Radiance Fields for Synthetic-to-real
Novel View Synthesis via Contrastive Learning [102.46382882098847]
まず,合成から現実への新規な視点合成における合成データの影響について検討した。
本稿では,幾何制約を伴う多視点一貫した特徴を学習するために,幾何対応のコントラスト学習を導入することを提案する。
提案手法は,PSNR,SSIM,LPIPSの点で,既存の一般化可能な新規ビュー合成手法よりも高い画質で精細な画像を描画することができる。
論文 参考訳(メタデータ) (2023-03-20T12:06:14Z) - LesionAid: Vision Transformers-based Skin Lesion Generation and
Classification [0.0]
本研究では,ViTとViTGANに基づいて皮膚病変を分類する新しいマルチクラス予測フレームワークを提案する。
フレームワークは、ViTGAN、画像処理、説明可能なAIの4つの主要なフェーズで構成されている。
論文 参考訳(メタデータ) (2023-02-02T13:52:54Z) - Red-GAN: Attacking class imbalance via conditioned generation. Yet
another perspective on medical image synthesis for skin lesion dermoscopy and
brain tumor MRI [5.075029145724692]
本稿では,生成的敵ネットワークに基づくデータ拡張プロトコルを提案する。
このアプローチを、BraTS、ISICの2つの医療データセットで検証する。
論文 参考訳(メタデータ) (2020-04-22T17:38:48Z) - Melanoma Detection using Adversarial Training and Deep Transfer Learning [6.22964000148682]
皮膚病変画像の自動分類のための2段階の枠組みを提案する。
第1段階では、条件付き画像合成のタスクにおいて、データ分布のクラス間変動を利用する。
第2段階では,皮膚病変分類のための深部畳み込みニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2020-04-14T22:46:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。