論文の概要: Group Equivariant Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2005.01683v2
- Date: Tue, 30 Mar 2021 18:00:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 00:38:40.120226
- Title: Group Equivariant Generative Adversarial Networks
- Title(参考訳): グループ同変生成逆ネットワーク
- Authors: Neel Dey, Antong Chen, Soheil Ghafurian
- Abstract要約: 本研究では,グループ同変畳み込みネットワークを通じて,帰納的対称性をネットワークアーキテクチャに明示的に組み込む。
群変換はより表現力が高く、サンプルが少ないため、ジェネレータと判別器の間の勾配フィードバックが向上する。
- 参考スコア(独自算出の注目度): 7.734726150561089
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent improvements in generative adversarial visual synthesis incorporate
real and fake image transformation in a self-supervised setting, leading to
increased stability and perceptual fidelity. However, these approaches
typically involve image augmentations via additional regularizers in the GAN
objective and thus spend valuable network capacity towards approximating
transformation equivariance instead of their desired task. In this work, we
explicitly incorporate inductive symmetry priors into the network architectures
via group-equivariant convolutional networks. Group-convolutions have higher
expressive power with fewer samples and lead to better gradient feedback
between generator and discriminator. We show that group-equivariance integrates
seamlessly with recent techniques for GAN training across regularizers,
architectures, and loss functions. We demonstrate the utility of our methods
for conditional synthesis by improving generation in the limited data regime
across symmetric imaging datasets and even find benefits for natural images
with preferred orientation.
- Abstract(参考訳): 近年の対向視覚合成の進歩は、実像と偽像の変換を自己監督的に取り入れ、安定性と知覚的忠実度を高めている。
しかし、これらのアプローチは典型的にはganの目的における追加の正規化子による画像拡張を伴い、望ましいタスクではなく変換等価性を近似するために貴重なネットワーク能力を使う。
本研究では,グループ同変畳み込みネットワークを通じて,帰納対称性をネットワークアーキテクチャに明示的に組み込む。
グループ畳み込みはより少ないサンプルで表現力が高く、ジェネレータと判別器の間の勾配フィードバックが向上する。
群等価性は, 正規化器, アーキテクチャ, 損失関数をまたいだGANトレーニングの手法とシームレスに統合可能であることを示す。
我々は,対称画像データセットにまたがる限られたデータ構造の生成を改善することで,条件合成のための手法の有用性を実証する。
関連論文リスト
- StraIT: Non-autoregressive Generation with Stratified Image Transformer [63.158996766036736]
Stratified Image Transformer(StraIT)は、純粋な非自己回帰(NAR)生成モデルである。
実験の結果,StraIT は NAR 生成を著しく改善し,既存の DM および AR 手法より優れていた。
論文 参考訳(メタデータ) (2023-03-01T18:59:33Z) - TcGAN: Semantic-Aware and Structure-Preserved GANs with Individual
Vision Transformer for Fast Arbitrary One-Shot Image Generation [11.207512995742999]
画像の内部パッチから学習する生成的敵ネットワークを持つワンショット画像生成(OSG)は、世界中で注目を集めている。
本稿では,既存のワンショット画像生成手法の欠点を克服するために,個々の視覚変換器を用いた構造保存方式TcGANを提案する。
論文 参考訳(メタデータ) (2023-02-16T03:05:59Z) - Imaging with Equivariant Deep Learning [9.333799633608345]
我々は、同変イメージングの出現する分野を概観し、それが一般化と新たなイメージングの機会をいかに向上させるかを示す。
獲得物理と集団行動の相互作用と、反復的再構成、ブラインド圧縮センシング、自己教師型学習との関連を示す。
論文 参考訳(メタデータ) (2022-09-05T02:13:57Z) - Auto-regressive Image Synthesis with Integrated Quantization [55.51231796778219]
本稿では,条件付き画像生成のための多目的フレームワークを提案する。
CNNの帰納バイアスと自己回帰の強力なシーケンスモデリングが組み込まれている。
提案手法は,最先端技術と比較して,優れた多彩な画像生成性能を実現する。
論文 参考訳(メタデータ) (2022-07-21T22:19:17Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Equivariance-bridged SO(2)-Invariant Representation Learning using Graph
Convolutional Network [0.1657441317977376]
回転に対して堅牢な畳み込みニューラルネットワーク(CNN)のトレーニングは、主にデータ拡張で行われている。
本稿では,ネットワークの構造的回転不変性を実現することにより,データ拡張への依存の軽減を図っている。
本手法は,回転MNISTおよびCIFAR-10画像の最先端画像分類性能を実現する。
論文 参考訳(メタデータ) (2021-06-18T08:37:45Z) - Analogous to Evolutionary Algorithm: Designing a Unified Sequence Model [58.17021225930069]
実演的進化アルゴリズム(EA)と類似した視覚変換器の合理性について説明する。
我々は、より効率的なEATモデルを提案し、様々なタスクに柔軟に対処するタスク関連ヘッドを設計する。
近年のビジョントランスに比べて,イメージネット分類作業における最先端の成果が得られている。
論文 参考訳(メタデータ) (2021-05-31T16:20:03Z) - LT-GAN: Self-Supervised GAN with Latent Transformation Detection [10.405721171353195]
画像の生成品質と多様性を改善するための自己教師付きアプローチ(LT-GAN)を提案する。
我々は,提案するLT-GANが,他の最先端のトレーニング技術と効果的に組み合わせて,付加的なメリットを享受できることを実験的に実証した。
論文 参考訳(メタデータ) (2020-10-19T22:09:45Z) - Probabilistic Spatial Transformer Networks [0.6999740786886537]
本稿では、決定論的ではなく、変換を推定する確率的拡張を提案する。
これら2つの特性が,分類性能,ロバスト性,モデル校正性の向上につながることを示す。
さらに、時系列データにおけるモデル性能を改善することにより、非視覚領域へのアプローチが一般化されることを実証する。
論文 参考訳(メタデータ) (2020-04-07T18:22:02Z) - Asymmetric GANs for Image-to-Image Translation [62.49892218126542]
GAN(Generative Adversarial Networks)の既存のモデルは、サイクル一貫性損失を使用して、ソースドメインからターゲットドメインへのマッピングを学習する。
非対称GANモデルを提案し、不等サイズと異なるパラメータ共有戦略の変換と再構成の両方を行う。
8つのデータセットを用いた教師付きおよび教師なし生成タスクの実験は、非対称GANが優れたモデルキャパシティとより良い生成性能を達成することを示す。
論文 参考訳(メタデータ) (2019-12-14T21:24:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。