論文の概要: Style-Agnostic Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2208.14863v1
- Date: Wed, 31 Aug 2022 13:45:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-01 13:09:27.810417
- Title: Style-Agnostic Reinforcement Learning
- Title(参考訳): スタイル非依存強化学習
- Authors: Juyong Lee, Seokjun Ahn, Jaesik Park
- Abstract要約: 本稿では,スタイル伝達と逆学習の両方を用いて,スタイル非依存表現を学習する新しい手法を提案する。
本手法は,固有対向型生成器から生成される多様な画像スタイルでアクターを訓練する。
提案手法は,Procgen and Distracting Control Suiteベンチマークにおける最先端の手法よりも,競争力や性能の向上が期待できる。
- 参考スコア(独自算出の注目度): 9.338454092492901
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel method of learning style-agnostic representation using
both style transfer and adversarial learning in the reinforcement learning
framework. The style, here, refers to task-irrelevant details such as the color
of the background in the images, where generalizing the learned policy across
environments with different styles is still a challenge. Focusing on learning
style-agnostic representations, our method trains the actor with diverse image
styles generated from an inherent adversarial style perturbation generator,
which plays a min-max game between the actor and the generator, without
demanding expert knowledge for data augmentation or additional class labels for
adversarial training. We verify that our method achieves competitive or better
performances than the state-of-the-art approaches on Procgen and Distracting
Control Suite benchmarks, and further investigate the features extracted from
our model, showing that the model better captures the invariants and is less
distracted by the shifted style. The code is available at
https://github.com/POSTECH-CVLab/style-agnostic-RL.
- Abstract(参考訳): 強化学習フレームワークにおけるスタイル伝達と逆学習の両方を用いたスタイル認識表現の新しい手法を提案する。
ここでのスタイルは、背景の色などのタスク非関連の詳細を指し、異なるスタイルの環境にまたがって学習ポリシーを一般化することは依然として課題である。
学習スタイルに依存しない表現に焦点をあてて,本手法では,データ強化の専門知識を必要とせずに,アクタとジェネレータ間のmin-maxゲームを行う固有対向型摂動生成器から生成された多様な画像スタイルを訓練する。
本稿では,提案手法がProcgen and Distracting Control Suiteベンチマークの最先端手法よりも競争力や性能を向上することを検証するとともに,モデルから抽出した特徴を更に検討し,モデルが不変量をよりよく捕捉し,シフトしたスタイルに注意を払わないことを示す。
コードはhttps://github.com/POSTECH-CVLab/style-agnostic-RLで公開されている。
関連論文リスト
- StyleShot: A Snapshot on Any Style [20.41380860802149]
テスト時間チューニングを伴わない汎用的なスタイル転送には,優れたスタイル表現が不可欠であることを示す。
スタイル認識型エンコーダと、StyleGalleryと呼ばれるよく編成されたスタイルデータセットを構築することで、これを実現する。
当社のアプローチであるStyleShotは,テストタイムチューニングを必要とせずに,さまざまなスタイルを模倣する上で,シンプルかつ効果的なものです。
論文 参考訳(メタデータ) (2024-07-01T16:05:18Z) - MuseumMaker: Continual Style Customization without Catastrophic Forgetting [50.12727620780213]
本研究では,一組のカスタマイズスタイルを終末的に追従することで,画像の合成を可能にする方法であるMuseumMakerを提案する。
新しいカスタマイズスタイルに直面すると、新しい画像生成のためのトレーニングデータのスタイルを抽出し学習するスタイル蒸留損失モジュールを開発する。
これは、新しい訓練画像の内容による学習バイアスを最小限に抑え、少数ショット画像によって引き起こされる破滅的な過適合問題に対処することができる。
論文 参考訳(メタデータ) (2024-04-25T13:51:38Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - StyleAdv: Meta Style Adversarial Training for Cross-Domain Few-Shot
Learning [89.86971464234533]
Cross-Domain Few-Shot Learning (CD-FSL)は、最近登場したタスクで、異なるドメインにわたる数ショットの学習に対処している。
本稿では,モデルに依存しないメタスタイル逆アタック(StyleAdv)手法と,新しいスタイル逆アタック手法を提案する。
本手法は視覚的スタイルに対して徐々に頑健であり,新たなターゲットデータセットの一般化能力を高める。
論文 参考訳(メタデータ) (2023-02-18T11:54:37Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - Adversarial Style Augmentation for Domain Generalized Urban-Scene
Segmentation [120.96012935286913]
そこで本研究では,学習中にハードなスタイリング画像を生成可能な,新たな対向型拡張手法を提案する。
2つの合成から実のセマンティックセグメンテーションベンチマークの実験により、AdvStyleは目に見えない実領域におけるモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2022-07-11T14:01:25Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。