論文の概要: CADA-GAN: Context-Aware GAN with Data Augmentation
- arxiv url: http://arxiv.org/abs/2301.08849v1
- Date: Sat, 21 Jan 2023 01:52:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 16:07:55.167096
- Title: CADA-GAN: Context-Aware GAN with Data Augmentation
- Title(参考訳): CADA-GAN: データ拡張によるコンテキスト対応GAN
- Authors: Sofie Daniels, Jiugeng Sun, Jiaqing Xie
- Abstract要約: CADA-GANはStyleGAN2-Adaモデルに適応しており、親画像の拡張とセグメンテーションに注意を払っている。
このモデルは、潜在機能表現において最も低いtextitMean Squared Error Loss (MSEloss)を持ち、生成された子イメージはベースラインモデルから生成されたものと比較して堅牢である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current child face generators are restricted by the limited size of the
available datasets. In addition, feature selection can prove to be a
significant challenge, especially due to the large amount of features that need
to be trained for. To manage these problems, we proposed CADA-GAN, a
\textbf{C}ontext-\textbf{A}ware GAN that allows optimal feature extraction,
with added robustness from additional \textbf{D}ata \textbf{A}ugmentation.
CADA-GAN is adapted from the popular StyleGAN2-Ada model, with attention on
augmentation and segmentation of the parent images. The model has the lowest
\textit{Mean Squared Error Loss} (MSEloss) on latent feature representations
and the generated child image is robust compared with the one that generated
from baseline models.
- Abstract(参考訳): 現在のチャイルドフェイスジェネレータは利用可能なデータセットのサイズに制限されている。
さらに、特にトレーニングが必要な大量の機能のために、機能選択が重要な課題であることが証明できます。
これらの問題を管理するために、我々は、最適な特徴抽出を可能にする \textbf{C}ontext-\textbf{A}ware GANであるCADA-GANを提案し、追加の \textbf{D}ata \textbf{A}ugmentation からロバスト性を追加した。
CADA-GANはStyleGAN2-Adaモデルに適応しており、親画像の拡張とセグメンテーションに注目している。
このモデルは、潜在特徴表現に対して最も低い \textit{Mean Squared Error Loss} (MSEloss) を持ち、生成された子画像はベースラインモデルから生成されたものと比較して堅牢である。
関連論文リスト
- Adapting Diffusion Models for Improved Prompt Compliance and Controllable Image Synthesis [43.481539150288434]
この作品は新しい家族を紹介します。
因子グラフ拡散モデル(FG-DM)
FG-DMは結合分布をモデル化する。
イメージやコンディショニング変数、例えばセマンティック、スケッチなどです。
因子グラフ分解による 奥行きや正常な地図です
論文 参考訳(メタデータ) (2024-10-29T00:54:00Z) - High-Precision Dichotomous Image Segmentation via Probing Diffusion Capacity [69.32473738284374]
本稿では,拡散モデルにおける事前学習されたU-Netのポテンシャルを利用する拡散駆動セグメンテーションモデルDiffDISを提案する。
SDモデルに先立って、頑健な一般化機能とリッチで多目的な画像表現を活用することにより、高忠実で詳細な生成を保ちながら、推論時間を著しく短縮する。
DIS5Kデータセットの実験は、DiffDISの優位性を示し、合理化された推論プロセスを通じて最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-14T02:49:23Z) - MS$^3$D: A RG Flow-Based Regularization for GAN Training with Limited Data [16.574346252357653]
物理における再正規化群(RG)の考え方に基づく新しい正規化法を提案する。
本手法は,限られたデータシナリオ下でのGANの性能と安定性を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2024-08-20T18:37:37Z) - CFG++: Manifold-constrained Classifier Free Guidance for Diffusion Models [52.29804282879437]
CFG++は、従来のCFG固有のオフマンドの課題に取り組む新しいアプローチである。
より優れたインバージョン・ツー・イメージ生成、可逆性、ガイダンススケールの縮小、モード崩壊の削減などを提供する。
高次拡散解法に容易に統合でき、自然に蒸留拡散モデルに拡張できる。
論文 参考訳(メタデータ) (2024-06-12T10:40:10Z) - Spurious Feature Eraser: Stabilizing Test-Time Adaptation for Vision-Language Foundation Model [86.9619638550683]
視覚言語基礎モデルは、画像とテキストのペアデータに拡張性があるため、多数の下流タスクで顕著な成功を収めている。
しかし、これらのモデルは、決定ショートカットの結果、きめ細かな画像分類などの下流タスクに適用した場合に重大な制限を呈する」。
論文 参考訳(メタデータ) (2024-03-01T09:01:53Z) - Jaeger: A Concatenation-Based Multi-Transformer VQA Model [0.13654846342364307]
文書に基づく視覚質問応答は,言語感覚の曖昧さと細粒度マルチモーダル検索の間に難しい課題を生じさせる。
本稿では,結合型マルチトランスVQAモデルであるJaegarを提案する。
我々のアプローチは、結合によってこれらのモデルの性能を増幅する可能性がある。
論文 参考訳(メタデータ) (2023-10-11T00:14:40Z) - A Bayesian Non-parametric Approach to Generative Models: Integrating
Variational Autoencoder and Generative Adversarial Networks using Wasserstein
and Maximum Mean Discrepancy [2.966338139852619]
GAN(Generative Adversarial Network)とVAE(VAE)は、最も顕著で広く研究されている生成モデルである。
ベイズ的非パラメトリック(BNP)アプローチを用いて、GANとVAEを融合する。
本稿では,GANの識別能力とVAEの再構成能力とを融合させることにより,多種多様な生成タスクにおいて優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-27T08:58:31Z) - Tractable Control for Autoregressive Language Generation [82.79160918147852]
本稿では,自動回帰テキスト生成モデルに語彙制約を課すために,トラクタブル確率モデル(TPM)を提案する。
本稿では,GeLaToが制約付きテキスト生成のための挑戦的ベンチマークにおいて,最先端のパフォーマンスを実現することを示す。
我々の研究は、大きな言語モデルを制御するための新しい道を開き、さらに表現力のあるTPMの開発を動機付けます。
論文 参考訳(メタデータ) (2023-04-15T00:19:44Z) - Latent Space is Feature Space: Regularization Term for GANs Training on
Limited Dataset [1.8634083978855898]
LFMと呼ばれるGANの付加的な構造と損失関数を提案し、潜在空間の異なる次元間の特徴の多様性を最大化するよう訓練した。
実験では、このシステムはDCGAN上に構築されており、CelebAデータセットのスクラッチからFrechet Inception Distance(FID)トレーニングを改善することが証明されている。
論文 参考訳(メタデータ) (2022-10-28T16:34:48Z) - Discrete Auto-regressive Variational Attention Models for Text Modeling [53.38382932162732]
変分オートエンコーダ(VAE)はテキストモデリングに広く応用されている。
情報不足と後部崩壊という2つの課題に悩まされている。
本稿では,自己回帰変動注意モデル(DAVAM)を提案する。
論文 参考訳(メタデータ) (2021-06-16T06:36:26Z) - Aggregated Contextual Transformations for High-Resolution Image
Inpainting [57.241749273816374]
画像の高精細化のための拡張GANモデルAggregated Contextual-Transformation GAN (AOT-GAN)を提案する。
そこで,提案するAOTブロックの複数のレイヤを積み重ねることで,AOT-GANのジェネレータを構築する。
テクスチャ合成を改善するため,AOT-GANの識別をマスク予測タスクでトレーニングすることで強化する。
論文 参考訳(メタデータ) (2021-04-03T15:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。