論文の概要: Revisiting GANs by Best-Response Constraint: Perspective, Methodology,
and Application
- arxiv url: http://arxiv.org/abs/2205.10146v1
- Date: Fri, 20 May 2022 12:42:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 21:48:11.743796
- Title: Revisiting GANs by Best-Response Constraint: Perspective, Methodology,
and Application
- Title(参考訳): ベストレスポンス制約によるGANの再検討:展望,方法論,応用
- Authors: Risheng Liu, Jiaxin Gao, Xuan Liu and Xin Fan
- Abstract要約: ベストレスポンス制約(Best-Response Constraint、BRC)は、ジェネレータのディスクリミネータへの依存性を明示的に定式化する一般的な学習フレームワークである。
モチベーションや定式化の相違があっても, フレキシブルBRC法により, 様々なGANが一様に改善できることが示される。
- 参考スコア(独自算出の注目度): 49.66088514485446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In past years, the minimax type single-level optimization formulation and its
variations have been widely utilized to address Generative Adversarial Networks
(GANs). Unfortunately, it has been proved that these alternating learning
strategies cannot exactly reveal the intrinsic relationship between the
generator and discriminator, thus easily result in a series of issues,
including mode collapse, vanishing gradients and oscillations in the training
phase, etc. In this work, by investigating the fundamental mechanism of GANs
from the perspective of hierarchical optimization, we propose Best-Response
Constraint (BRC), a general learning framework, that can explicitly formulate
the potential dependency of the generator on the discriminator. Rather than
adopting these existing time-consuming bilevel iterations, we design an
implicit gradient scheme with outer-product Hessian approximation as our fast
solution strategy. \emph{Noteworthy, we demonstrate that even with different
motivations and formulations, a variety of existing GANs ALL can be uniformly
improved by our flexible BRC methodology.} Extensive quantitative and
qualitative experimental results verify the effectiveness, flexibility and
stability of our proposed framework.
- Abstract(参考訳): 近年,GAN(Generative Adversarial Networks)に対処するために,ミニマックス型単一レベル最適化の定式化とそのバリエーションが広く利用されている。
残念なことに、これらの交互学習戦略は、生成器と判別器との間の本質的な関係を正確に明らかにできないため、モードの崩壊、トレーニングフェーズにおける勾配の消失、振動など、一連の問題を引き起こすことが容易に証明されている。
本稿では,階層的最適化の観点からgansの基本機構を調べることにより,ジェネレータの判別器への潜在的依存性を明示的に定式化できる汎用学習フレームワークである最良応答制約(brc)を提案する。
既存の時間的二段階反復を採用するのではなく、我々の高速解戦略として、外積ヘッセン近似を用いた暗黙的な勾配スキームを設計する。
異なるモチベーションや定式化があっても、様々な既存のGAN ALLを柔軟BRC法により一様に改善できることを実証する。
以上の結果から,提案フレームワークの有効性,柔軟性,安定性が検証された。
関連論文リスト
- Distributionally Robust Model-based Reinforcement Learning with Large
State Spaces [55.14361269378122]
強化学習における3つの大きな課題は、大きな状態空間を持つ複雑な力学系、コストのかかるデータ取得プロセス、トレーニング環境の展開から現実の力学を逸脱させることである。
広範に用いられているKullback-Leibler, chi-square, および全変分不確実性集合の下で, 連続状態空間を持つ分布ロバストなマルコフ決定過程について検討した。
本稿では,ガウス過程と最大分散削減アルゴリズムを用いて,多出力名目遷移力学を効率的に学習するモデルベースアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-05T13:42:11Z) - Provable Guarantees for Generative Behavior Cloning: Bridging Low-Level
Stability and High-Level Behavior [51.60683890503293]
生成モデルを用いた複雑な専門家による実演の行動クローニングに関する理論的枠組みを提案する。
任意の専門的軌跡の時間ごとのステップ分布に一致するトラジェクトリを生成することができることを示す。
論文 参考訳(メタデータ) (2023-07-27T04:27:26Z) - Latent Variable Representation for Reinforcement Learning [131.03944557979725]
モデルに基づく強化学習のサンプル効率を改善するために、潜在変数モデルが学習、計画、探索をいかに促進するかは理論上、実証上、不明である。
状態-作用値関数に対する潜在変数モデルの表現ビューを提供する。これは、抽出可能な変分学習アルゴリズムと楽観主義/悲観主義の原理の効果的な実装の両方を可能にする。
特に,潜伏変数モデルのカーネル埋め込みを組み込んだUPB探索を用いた計算効率の良い計画アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-17T00:26:31Z) - A General Framework for Sample-Efficient Function Approximation in
Reinforcement Learning [132.45959478064736]
モデルベースとモデルフリー強化学習を統合した汎用フレームワークを提案する。
最適化に基づく探索のための分解可能な構造特性を持つ新しい推定関数を提案する。
本フレームワークでは,OPERA (Optimization-based Exploration with Approximation) という新しいサンプル効率アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-30T17:59:16Z) - Inference-InfoGAN: Inference Independence via Embedding Orthogonal Basis
Expansion [2.198430261120653]
解離学習は、生成モデルが一般的な戦略である独立かつ解釈可能な潜在変数を構築することを目的としている。
本稿では,直交基底拡張(OBE)をInfoGANネットワークに組み込むことで,新しいGANベースの非絡み合いフレームワークを提案する。
我々の推論情報GANは、モデル微調整なしで、FactVAE、分離されたferenceAttribute Predictability(SAP)、Mutual Information Gap(MIG)、およびVP(VP)の指標で高い歪みスコアを得る。
論文 参考訳(メタデータ) (2021-10-02T11:54:23Z) - A Generic Descent Aggregation Framework for Gradient-based Bi-level
Optimization [41.894281911990554]
両レベル学習タスクのための新しいBDA(Bi-level Descent Aggregation)フレームワークを開発した。
BDAは上層と下層の両方の階層的目的を集約する。
従来の勾配に基づくbiレベル法の収束結果を改善するための新しい証明法を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:58:12Z) - Optimization-Inspired Learning with Architecture Augmentations and
Control Mechanisms for Low-Level Vision [74.9260745577362]
本稿では,GDC(Generative, Discriminative, and Corrective)の原則を集約する,最適化に着想を得た統合学習フレームワークを提案する。
フレキシブルな組み合わせで最適化モデルを効果的に解くために,3つのプロパゲーティブモジュールを構築した。
低レベル視覚タスクにおける実験は、GDCの有効性と適応性を検証する。
論文 参考訳(メタデータ) (2020-12-10T03:24:53Z) - Constrained Combinatorial Optimization with Reinforcement Learning [0.30938904602244344]
本稿では,RL(Deep Reinforcement Learning)を用いた制約付き最適化問題に対処する枠組みを提案する。
我々は、その定式化における制約に対処するために、Neural Combinatorial Optimization(NCO)理論を拡張した。
その文脈では、ソリューションは環境との相互作用に基づいて反復的に構築されます。
論文 参考訳(メタデータ) (2020-06-22T03:13:07Z) - Generalized Adversarially Learned Inference [42.40405470084505]
我々は、画像生成器とエンコーダを逆向きにトレーニングし、画像と潜時ベクトル対の2つの結合分布を一致させることにより、GAN内の潜時変数を推定する方法を開発した。
我々は、望まれるソリューションに関する事前または学習知識に基づいて、再構築、自己監督、その他の形式の監督に関する複数のフィードバック層を組み込んだ。
論文 参考訳(メタデータ) (2020-06-15T02:18:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。