論文の概要: CADA-GAN: Context-Aware GAN with Data Augmentation
- arxiv url: http://arxiv.org/abs/2301.08849v1
- Date: Sat, 21 Jan 2023 01:52:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 16:07:55.167096
- Title: CADA-GAN: Context-Aware GAN with Data Augmentation
- Title(参考訳): CADA-GAN: データ拡張によるコンテキスト対応GAN
- Authors: Sofie Daniels, Jiugeng Sun, Jiaqing Xie
- Abstract要約: CADA-GANはStyleGAN2-Adaモデルに適応しており、親画像の拡張とセグメンテーションに注意を払っている。
このモデルは、潜在機能表現において最も低いtextitMean Squared Error Loss (MSEloss)を持ち、生成された子イメージはベースラインモデルから生成されたものと比較して堅牢である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current child face generators are restricted by the limited size of the
available datasets. In addition, feature selection can prove to be a
significant challenge, especially due to the large amount of features that need
to be trained for. To manage these problems, we proposed CADA-GAN, a
\textbf{C}ontext-\textbf{A}ware GAN that allows optimal feature extraction,
with added robustness from additional \textbf{D}ata \textbf{A}ugmentation.
CADA-GAN is adapted from the popular StyleGAN2-Ada model, with attention on
augmentation and segmentation of the parent images. The model has the lowest
\textit{Mean Squared Error Loss} (MSEloss) on latent feature representations
and the generated child image is robust compared with the one that generated
from baseline models.
- Abstract(参考訳): 現在のチャイルドフェイスジェネレータは利用可能なデータセットのサイズに制限されている。
さらに、特にトレーニングが必要な大量の機能のために、機能選択が重要な課題であることが証明できます。
これらの問題を管理するために、我々は、最適な特徴抽出を可能にする \textbf{C}ontext-\textbf{A}ware GANであるCADA-GANを提案し、追加の \textbf{D}ata \textbf{A}ugmentation からロバスト性を追加した。
CADA-GANはStyleGAN2-Adaモデルに適応しており、親画像の拡張とセグメンテーションに注目している。
このモデルは、潜在特徴表現に対して最も低い \textit{Mean Squared Error Loss} (MSEloss) を持ち、生成された子画像はベースラインモデルから生成されたものと比較して堅牢である。
関連論文リスト
- Invariant Test-Time Adaptation for Vision-Language Model Generalization [90.70743356588996]
学習可能なプロンプトを最適化するテスト時間プロンプトチューニングのパラダイムを導入し,真の因果不変性を活用できるようにモデルを説得する。
提案手法は,潜在的に誤解を招く可能性のあるタスク関連文脈情報への過度な依存を効果的に軽減する。
論文 参考訳(メタデータ) (2024-03-01T09:01:53Z) - Jaeger: A Concatenation-Based Multi-Transformer VQA Model [0.13654846342364307]
文書に基づく視覚質問応答は,言語感覚の曖昧さと細粒度マルチモーダル検索の間に難しい課題を生じさせる。
本稿では,結合型マルチトランスVQAモデルであるJaegarを提案する。
我々のアプローチは、結合によってこれらのモデルの性能を増幅する可能性がある。
論文 参考訳(メタデータ) (2023-10-11T00:14:40Z) - A Bayesian Non-parametric Approach to Generative Models: Integrating
Variational Autoencoder and Generative Adversarial Networks using Wasserstein
and Maximum Mean Discrepancy [2.966338139852619]
GAN(Generative Adversarial Network)とVAE(VAE)は、最も顕著で広く研究されている生成モデルである。
ベイズ的非パラメトリック(BNP)アプローチを用いて、GANとVAEを融合する。
本稿では,GANの識別能力とVAEの再構成能力とを融合させることにより,多種多様な生成タスクにおいて優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-27T08:58:31Z) - CoNAN: Conditional Neural Aggregation Network For Unconstrained Face
Feature Fusion [11.059590443280726]
テンプレートアグリゲーションのためのCoNANと呼ばれる特徴分散条件付け手法を提案する。
具体的には,受信した特徴集合の分布情報から条件付きコンテキストベクトルを学習することを目的としている。
提案手法は、長距離非拘束顔認識データセットの最先端結果を生成する。
論文 参考訳(メタデータ) (2023-07-16T09:47:21Z) - Tractable Control for Autoregressive Language Generation [82.79160918147852]
本稿では,自動回帰テキスト生成モデルに語彙制約を課すために,トラクタブル確率モデル(TPM)を提案する。
本稿では,GeLaToが制約付きテキスト生成のための挑戦的ベンチマークにおいて,最先端のパフォーマンスを実現することを示す。
我々の研究は、大きな言語モデルを制御するための新しい道を開き、さらに表現力のあるTPMの開発を動機付けます。
論文 参考訳(メタデータ) (2023-04-15T00:19:44Z) - High-Resolution GAN Inversion for Degraded Images in Large Diverse
Datasets [39.21692649763314]
本稿では,StyleGAN-XLの強力な生成能力を利用した新しいGANインバージョンフレームワークを提案する。
StyleGAN-XLによる逆問題を軽減するために、Clustering & Regularize Inversion (CRI)を提案する。
我々は、複雑な自然画像の複数の復元作業(例えば、塗装、着色、超解像)において、CRI方式を検証し、定量的および定性的な結果を示す。
論文 参考訳(メタデータ) (2023-02-07T11:24:11Z) - Latent Space is Feature Space: Regularization Term for GANs Training on
Limited Dataset [1.8634083978855898]
LFMと呼ばれるGANの付加的な構造と損失関数を提案し、潜在空間の異なる次元間の特徴の多様性を最大化するよう訓練した。
実験では、このシステムはDCGAN上に構築されており、CelebAデータセットのスクラッチからFrechet Inception Distance(FID)トレーニングを改善することが証明されている。
論文 参考訳(メタデータ) (2022-10-28T16:34:48Z) - A Better Loss for Visual-Textual Grounding [74.81353762517979]
テキスト句と画像とが与えられた場合、視覚的接地問題は、文によって参照された画像の内容を特定するタスクとして定義される。
ヒューマン・コンピュータ・インタラクション、画像・テキスト・リファレンス・レゾリューション、ビデオ・テキスト・リファレンス・レゾリューションなどにおける現実的な応用がいくつかある課題である。
本稿では,より効率的な損失関数の導入により,最先端モデルよりも高い精度が得られるモデルを提案する。
論文 参考訳(メタデータ) (2021-08-11T16:26:54Z) - Discrete Auto-regressive Variational Attention Models for Text Modeling [53.38382932162732]
変分オートエンコーダ(VAE)はテキストモデリングに広く応用されている。
情報不足と後部崩壊という2つの課題に悩まされている。
本稿では,自己回帰変動注意モデル(DAVAM)を提案する。
論文 参考訳(メタデータ) (2021-06-16T06:36:26Z) - CAGAN: Text-To-Image Generation with Combined Attention GANs [70.3497683558609]
テキスト記述に基づく写真リアルな画像を生成するために,CAGAN(Combined Attention Generative Adversarial Network)を提案する。
提案されたCAGANは2つの注意モデルを用いている:関連語に条件付きで異なる部分領域を描画する単語注意と、チャネル間の非線形相互作用をキャプチャする絞りと励起の注意である。
スペクトル正規化によるトレーニングの安定化により、提案したCAGANは、CUBデータセット上のISとFID、より困難なCOCOデータセット上のFIDの技術を改良する。
論文 参考訳(メタデータ) (2021-04-26T15:46:40Z) - Aggregated Contextual Transformations for High-Resolution Image
Inpainting [57.241749273816374]
画像の高精細化のための拡張GANモデルAggregated Contextual-Transformation GAN (AOT-GAN)を提案する。
そこで,提案するAOTブロックの複数のレイヤを積み重ねることで,AOT-GANのジェネレータを構築する。
テクスチャ合成を改善するため,AOT-GANの識別をマスク予測タスクでトレーニングすることで強化する。
論文 参考訳(メタデータ) (2021-04-03T15:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。