論文の概要: Slimmable Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2012.05660v3
- Date: Thu, 18 Mar 2021 03:14:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 06:37:07.914490
- Title: Slimmable Generative Adversarial Networks
- Title(参考訳): Slimmable Generative Adversarial Networks
- Authors: Liang Hou, Zehuan Yuan, Lei Huang, Huawei Shen, Xueqi Cheng, Changhu
Wang
- Abstract要約: 近年、GAN(Generative adversarial Network)は目覚ましい進歩を遂げていますが、モデルの継続的な拡大は、実用的なアプリケーションに広く展開することを困難にしています。
本稿では,実行時の各種品質効率トレードオフに対応するため,発電機の幅を柔軟に切り替えることのできるスリムブルGANを提案する。
- 参考スコア(独自算出の注目度): 54.61774365777226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) have achieved remarkable progress in
recent years, but the continuously growing scale of models makes them
challenging to deploy widely in practical applications. In particular, for
real-time generation tasks, different devices require generators of different
sizes due to varying computing power. In this paper, we introduce slimmable
GANs (SlimGANs), which can flexibly switch the width of the generator to
accommodate various quality-efficiency trade-offs at runtime. Specifically, we
leverage multiple discriminators that share partial parameters to train the
slimmable generator. To facilitate the \textit{consistency} between generators
of different widths, we present a stepwise inplace distillation technique that
encourages narrow generators to learn from wide ones. As for class-conditional
generation, we propose a sliceable conditional batch normalization that
incorporates the label information into different widths. Our methods are
validated, both quantitatively and qualitatively, by extensive experiments and
a detailed ablation study.
- Abstract(参考訳): 近年,gans(generative adversarial network)が著しい進歩を遂げている。
特に、リアルタイム生成タスクでは、異なるデバイスは様々な計算能力のために異なるサイズのジェネレータを必要とする。
本稿では,スリム化可能なGAN(SlimGAN)を導入し,実行時の各種品質効率トレードオフに対応するために,ジェネレータの幅を柔軟に切り替える。
具体的には、部分パラメータを共有する複数の識別器を活用して、スリム化可能なジェネレータを訓練する。
異なる幅のジェネレータ間の \textit{consistency} を容易にするため、我々は、狭義のジェネレータが広いものから学ぶことを奨励するステップワイズインプレース蒸留技術を提案する。
クラス条件生成に関しては,ラベル情報を異なる幅に組み込むスライス可能な条件付きバッチ正規化を提案する。
本手法は,広範囲な実験と詳細なアブレーション研究により定量的かつ定性的に検証されている。
関連論文リスト
- A Block Metropolis-Hastings Sampler for Controllable Energy-based Text
Generation [78.81021361497311]
我々は,大規模言語モデルの反復的プロンプトを通じて,各ステップにおけるシーケンス全体の書き直しを提案する新しいメトロポリス・ハスティングス(MH)サンプリング器を開発した。
対象分布からより効率的かつ正確なサンプリングが可能となり, (b) 事前に固定するのではなく, サンプリング手順により生成長を決定することが可能となった。
論文 参考訳(メタデータ) (2023-12-07T18:30:15Z) - VOLTA: Improving Generative Diversity by Variational Mutual Information Maximizing Autoencoder [38.35049378875308]
VOLTAは,VAEでトランスフォーマーをブリッジすることで,遺伝子多様性を高めるフレームワークである。
6つのデータセット上で2種類のトランスフォーマーを用いた総合的な実験を行い、生成品質を維持しながら生成の多様性を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2023-07-03T08:45:42Z) - Start Small: Training Game Level Generators from Nothing by Learning at
Multiple Sizes [0.0]
プロシージャレベルジェネレータはノイズからレベルを生成するツールである。
ジェネレータを構築する方法のひとつに機械学習があるが、トレーニングデータの希少さを考えると、ジェネレータを無からトレーニングするための複数の方法が提案されている。
本稿では,所望のサイズの小さいものから所望のサイズのものまで,複数のレベルの大きさで学習することで,無からジェネレータを訓練する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-29T18:52:54Z) - Twist Decoding: Diverse Generators Guide Each Other [116.20780037268801]
様々なモデルの恩恵を受けながらテキストを生成するシンプルで一般的な推論アルゴリズムであるTwist decodingを導入する。
我々の方法は、語彙、トークン化、あるいは生成順序が共有されていると仮定しない。
論文 参考訳(メタデータ) (2022-05-19T01:27:53Z) - Generative Cooperative Networks for Natural Language Generation [25.090455367573988]
本稿では,リアルテキストのサンプルを出力する生成ポリシーとともに,識別器アーキテクチャを協調的に使用する生成協調ネットワークについて紹介する。
我々は,提案手法の収束を理論的に保証し,2つの主要なNLGタスクにおいて,最先端の成果を実証的に達成するための様々な効率的な復号化手法について検討する。
論文 参考訳(メタデータ) (2022-01-28T18:36:57Z) - Conditional Generative Modeling via Learning the Latent Space [54.620761775441046]
マルチモーダル空間における条件生成のための新しい枠組みを提案する。
潜在変数を使って一般化可能な学習パターンをモデル化する。
推論では、潜伏変数は複数の出力モードに対応する最適解を見つけるために最適化される。
論文 参考訳(メタデータ) (2020-10-07T03:11:34Z) - GeDi: Generative Discriminator Guided Sequence Generation [53.15651536569169]
本稿では,より小さなLMを生成的識別器として利用し,大規模なLMから生成を誘導する効率的な方法としてGeDiを提案する。
GeDiは最先端技術よりも制御性が強く,生成速度も30倍以上に向上することがわかった。
論文 参考訳(メタデータ) (2020-09-14T17:45:36Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Improving GANs for Speech Enhancement [19.836041050328102]
マルチステージエンハンスメントマッピングを行うために,複数のジェネレータをチェーン化することを提案する。
提案手法は, 1段SEGANベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-01-15T19:57:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。