論文の概要: Interpreting the Latent Space of Generative Adversarial Networks using
Supervised Learning
- arxiv url: http://arxiv.org/abs/2102.12139v1
- Date: Wed, 24 Feb 2021 09:00:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-25 22:15:02.607264
- Title: Interpreting the Latent Space of Generative Adversarial Networks using
Supervised Learning
- Title(参考訳): 教師付き学習による生成型adversarial networkの潜在空間の解釈
- Authors: Toan Pham Van, Tam Minh Nguyen, Ngoc N. Tran, Hoai Viet Nguyen, Linh
Bao Doan, Huy Quang Dao and Thanh Ta Minh
- Abstract要約: 本稿では,ganの隠れ空間についてより詳しく知るために,人間の知識をエンコードする。
この教師付き方式により、生成した画像の正確な操作により、有望な結果が得られる。
我々のモデルはタスク固有の問題に向いているが、実装の容易さ、正確性、堅牢性、リッチなプロパティセットの許容性が、多くの現在のアプリケーションの結果を高めることを願っている。
- 参考スコア(独自算出の注目度): 1.231476564107544
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: With great progress in the development of Generative Adversarial Networks
(GANs), in recent years, the quest for insights in understanding and
manipulating the latent space of GAN has gained more and more attention due to
its wide range of applications. While most of the researches on this task have
focused on unsupervised learning method, which induces difficulties in training
and limitation in results, our work approaches another direction, encoding
human's prior knowledge to discover more about the hidden space of GAN. With
this supervised manner, we produce promising results, demonstrated by accurate
manipulation of generated images. Even though our model is more suitable for
task-specific problems, we hope that its ease in implementation, preciseness,
robustness, and the allowance of richer set of properties (compared to other
approaches) for image manipulation can enhance the result of many current
applications.
- Abstract(参考訳): GAN(Generative Adversarial Networks)の発展により、近年、GANの潜在空間の理解と操作に関する洞察の探求は、その幅広い用途のためにますます注目を集めています。
この課題に関するほとんどの研究は教師なし学習に焦点を合わせており、トレーニングの困難と結果の制限を招いているが、我々の研究は、ganの隠れた空間についてより詳しく知るために人間の事前知識をエンコードする別の方向に向かっている。
この教師付き方式により、生成した画像の正確な操作により、有望な結果が得られる。
私たちのモデルはタスク固有の問題にもっと適していますが、実装の容易さ、正確性、堅牢性、および画像操作のためのよりリッチなプロパティセット(他のアプローチと比較して)の許容度が、現在の多くのアプリケーションの結果を高めることを望んでいます。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Controlling the Latent Space of GANs through Reinforcement Learning: A
Case Study on Task-based Image-to-Image Translation [5.881800919492065]
GAN(Generative Adversarial Networks)は、トレーニングデータセットに基づいたリアルなアウトプットを生成する、恐ろしいAIツールとして登場した。
我々は、強化学習(RL)エージェントと潜時空間GAN(l-GAN)を統合することでこの問題に対処する新しい手法を提案する。
我々は,l-GANの潜伏空間をナビゲートする習熟度を確保するために,厳密に設計された報酬ポリシーを備えたアクタ批判的RLエージェントを開発した。
論文 参考訳(メタデータ) (2023-07-26T06:34:24Z) - SeMAIL: Eliminating Distractors in Visual Imitation via Separated Models [22.472167814814448]
本稿では,SeMAIL(Separated Model-based Adversarial Imitation Learning)というモデルベース模倣学習アルゴリズムを提案する。
本手法は, 様々な視覚的制御タスクにおいて, 複雑な観察と, 専門的な観察から異なる背景を持つより困難なタスクにおいて, ほぼ専門的な性能を実現する。
論文 参考訳(メタデータ) (2023-06-19T04:33:44Z) - Learning from Guided Play: A Scheduled Hierarchical Approach for
Improving Exploration in Adversarial Imitation Learning [7.51557557629519]
本稿では,主課題,複数の補助課題に加えて,専門家による実演を活用するためのフレームワークであるLearning from Guided Play (LfGP)を紹介する。
主なタスクに対する学習効率は、ボトルネック遷移に挑戦して改善され、専門家データがタスク間で再利用可能になり、学習した補助タスクモデルの再利用を通じて学習を移行することが可能になります。
論文 参考訳(メタデータ) (2021-12-16T14:58:08Z) - Glimpse-Attend-and-Explore: Self-Attention for Active Visual Exploration [47.01485765231528]
アクティブな視覚探索は、限られた視野を持つエージェントが部分的な観察に基づいて環境を理解するのを支援することを目的としている。
タスク固有の不確実性マップではなく、自己注意を用いて視覚探索をガイドするGlimpse-Attend-and-Exploreモデルを提案する。
私たちのモデルは、探索を駆動する際のデータセットバイアスに頼らずに、奨励的な結果を提供します。
論文 参考訳(メタデータ) (2021-08-26T11:41:03Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - CoDeGAN: Contrastive Disentanglement for Generative Adversarial Network [0.5437298646956507]
解釈可能な機械学習において重要な関心事であるディスタングルメントもまた、コンピュータビジョンコミュニティから大きな注目を集めている。
我々はtextttCoDeGAN を提案し、画像領域から特徴領域への切り離しに関する類似性制約を緩和する。
我々はCoDeGANに自己教師付き事前学習を統合して意味表現を学習し、教師なしの絡み合いを著しく促進する。
論文 参考訳(メタデータ) (2021-03-05T12:44:22Z) - Demonstration-efficient Inverse Reinforcement Learning in Procedurally
Generated Environments [137.86426963572214]
逆強化学習(Inverse Reinforcement Learning)は、専門家によるデモンストレーションから報酬関数を外挿する。
提案手法であるDE-AIRLは、実演効率が高く、完全手続き領域に一般化する報酬関数を外挿できることを示す。
論文 参考訳(メタデータ) (2020-12-04T11:18:02Z) - Parrot: Data-Driven Behavioral Priors for Reinforcement Learning [79.32403825036792]
そこで本研究では,実験で得られた複雑なインプット・アウトプット関係を事前に学習する手法を提案する。
RLエージェントが新規な動作を試す能力を阻害することなく、この学習が新しいタスクを迅速に学習するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-11-19T18:47:40Z) - Weakly-Supervised Reinforcement Learning for Controllable Behavior [126.04932929741538]
強化学習(Reinforcement Learning、RL)は、タスクを解決するために行動を取るための学習のための強力なフレームワークである。
多くの設定において、エージェントは、現在解決するよう求められている単一のタスクに対して、不可能なほど大きなタスク空間を放棄しなければならない。
我々は,この意味論的意味のあるタスクのサブスペースを,非意味的な「チャフ」タスクの巨大な空間から自動的に切り離すために,弱い監督を利用するフレームワークを導入する。
論文 参考訳(メタデータ) (2020-04-06T17:50:28Z) - Interpreting Galaxy Deblender GAN from the Discriminator's Perspective [50.12901802952574]
本研究は、ネットワークの主要なコンポーネントである識別器の動作に焦点を当てるが、しばしば見落とされがちな役割を担っている。
本手法は, 生成銀河画像と地中真理画像とを区別する際に, 識別器の注意領域を明確に明らかにする。
論文 参考訳(メタデータ) (2020-01-17T04:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。