論文の概要: A Multi-attribute Controllable Generative Model for Histopathology Image
Synthesis
- arxiv url: http://arxiv.org/abs/2111.06398v1
- Date: Wed, 10 Nov 2021 22:48:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-15 14:16:33.862164
- Title: A Multi-attribute Controllable Generative Model for Histopathology Image
Synthesis
- Title(参考訳): 病理画像合成のための多属性制御可能な生成モデル
- Authors: Jiarong Ye, Yuan Xue, Peter Liu, Richard Zaino, Keith Cheng, Xiaolei
Huang
- Abstract要約: 我々は,属性認識画像合成モデルであるAttributeGANを実現するために,最先端のGAN(Generative Adversarial Network)を構築した。
尿路上皮癌の染色H&E像を含む病理組織学的データセットについて実験を行った。
- 参考スコア(独自算出の注目度): 13.353006960284159
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models have been applied in the medical imaging domain for various
image recognition and synthesis tasks. However, a more controllable and
interpretable image synthesis model is still lacking yet necessary for
important applications such as assisting in medical training. In this work, we
leverage the efficient self-attention and contrastive learning modules and
build upon state-of-the-art generative adversarial networks (GANs) to achieve
an attribute-aware image synthesis model, termed AttributeGAN, which can
generate high-quality histopathology images based on multi-attribute inputs. In
comparison to existing single-attribute conditional generative models, our
proposed model better reflects input attributes and enables smoother
interpolation among attribute values. We conduct experiments on a
histopathology dataset containing stained H&E images of urothelial carcinoma
and demonstrate the effectiveness of our proposed model via comprehensive
quantitative and qualitative comparisons with state-of-the-art models as well
as different variants of our model. Code is available at
https://github.com/karenyyy/MICCAI2021AttributeGAN.
- Abstract(参考訳): 生成モデルは医用画像領域で様々な画像認識と合成タスクに応用されている。
しかし, 医用訓練支援などの重要な応用には, より制御可能な, 解釈可能な画像合成モデルが必要である。
本研究では,多属性入力に基づく高品質な病理画像を生成する属性認識画像合成モデルであるAttributeGANを実現するために,効率的な自己注意学習モジュールとコントラスト学習モジュールを活用して,最先端のジェネレーティブ・敵ネットワーク(GAN)を構築する。
既存の単一属性条件生成モデルと比較して,提案モデルは入力属性をよりよく反映し,属性値間のスムースな補間を可能にする。
尿路上皮癌の染色H&E画像を含む病理組織学的データセットについて実験を行い,本モデルと最先端モデルとの総合的定量的および定性的比較と,異なる変種との比較により,本モデルの有効性を実証した。
コードはhttps://github.com/karenyy/MICCAI2021AttributeGANで入手できる。
関連論文リスト
- A Simple Approach to Unifying Diffusion-based Conditional Generation [63.389616350290595]
多様な条件生成タスクを処理するための、シンプルで統一されたフレームワークを導入します。
提案手法は,異なる推論時間サンプリング方式による多目的化を実現する。
我々のモデルは、非親密なアライメントや粗い条件付けのような追加機能をサポートしています。
論文 参考訳(メタデータ) (2024-10-15T09:41:43Z) - Meissonic: Revitalizing Masked Generative Transformers for Efficient High-Resolution Text-to-Image Synthesis [62.06970466554273]
SDXLのような最先端拡散モデルに匹敵するレベルまで、非自己回帰マスク型画像モデリング(MIM)のテキスト・ツー・イメージが増大するMeissonicを提案する。
高品質なトレーニングデータを活用し、人間の嗜好スコアから得られるマイクロ条件を統合し、特徴圧縮層を用いて画像の忠実度と解像度をさらに向上する。
我々のモデルは、高画質の高精細画像を生成する際に、SDXLのような既存のモデルに適合するだけでなく、しばしば性能を上回ります。
論文 参考訳(メタデータ) (2024-10-10T17:59:17Z) - Synthetic Generation of Dermatoscopic Images with GAN and Closed-Form Factorization [12.753792457271953]
本稿では,GAN(Generative Adversarial Network)ベースのモデルを活用する,革新的な教師なし拡張ソリューションを提案する。
セマンティックなバリエーションを取り入れた合成画像を作成し、これらの画像でトレーニングデータを拡張した。
皮膚病変分類において,機械学習モデルの性能を向上し,非アンサンブルモデルに新しいベンチマークを設定できた。
論文 参考訳(メタデータ) (2024-10-07T15:09:50Z) - Unleashing the Potential of Synthetic Images: A Study on Histopathology Image Classification [0.12499537119440242]
病理組織像分類は様々な疾患の正確な同定と診断に重要である。
合成画像は、既存のデータセットを効果的に増強し、最終的に下流の病理組織像分類タスクの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-09-24T12:02:55Z) - Multi-Branch Generative Models for Multichannel Imaging with an Application to PET/CT Synergistic Reconstruction [42.95604565673447]
本稿では,マルチブランチ生成モデルを用いた医用画像の相乗的再構築のための新しい手法を提案する。
我々は,MNIST (Modified National Institute of Standards and Technology) とPET (positron emission tomography) とCT (Computed tomography) の2つのデータセットに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2024-04-12T18:21:08Z) - Comparison of No-Reference Image Quality Models via MAP Estimation in
Diffusion Latents [99.19391983670569]
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
異なるNR-IQAモデルは異なる拡張イメージを誘導し、最終的には精神物理学的なテストを受ける。
これにより, NR-IQAモデルの比較を行う新たな計算手法が提案される。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - Adaptive Input-image Normalization for Solving the Mode Collapse Problem in GAN-based X-ray Images [0.08192907805418582]
この研究は、適応入力-画像正規化をDeep Conversaal GANとAuxiliary GANと統合してモード崩壊問題を緩和する利点の実証的な実証に寄与する。
その結果, 適応入出力正規化によるDCGANとACGANは, 非正規化X線画像でDCGANとACGANより優れていた。
論文 参考訳(メタデータ) (2023-09-21T16:43:29Z) - StableLLaVA: Enhanced Visual Instruction Tuning with Synthesized
Image-Dialogue Data [129.92449761766025]
本稿では,視覚的インストラクションチューニングのための画像と対話を同期的に合成する新しいデータ収集手法を提案する。
このアプローチは生成モデルのパワーを活用し、ChatGPTとテキスト・ツー・イメージ生成モデルの能力とを結合する。
本研究は,各種データセットを対象とした総合的な実験を含む。
論文 参考訳(メタデータ) (2023-08-20T12:43:52Z) - Classification of lung cancer subtypes on CT images with synthetic
pathological priors [41.75054301525535]
同症例のCT像と病理像との間には,画像パターンに大規模な関連性が存在する。
肺がんサブタイプをCT画像上で正確に分類するための自己生成型ハイブリッド機能ネットワーク(SGHF-Net)を提案する。
論文 参考訳(メタデータ) (2023-08-09T02:04:05Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - DiVAE: Photorealistic Images Synthesis with Denoising Diffusion Decoder [73.1010640692609]
本稿では,拡散デコーダ(DiVAE)を用いたVQ-VAEアーキテクチャモデルを提案する。
我々のモデルは最先端の成果を達成し、さらに多くのフォトリアリスティックな画像を生成する。
論文 参考訳(メタデータ) (2022-06-01T10:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。