論文の概要: RLMiniStyler: Light-weight RL Style Agent for Arbitrary Sequential Neural Style Generation
- arxiv url: http://arxiv.org/abs/2505.04424v1
- Date: Wed, 07 May 2025 13:57:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:36.100032
- Title: RLMiniStyler: Light-weight RL Style Agent for Arbitrary Sequential Neural Style Generation
- Title(参考訳): RLMiniStyler: 任意シーケンスニューラルスタイル生成のための軽量RLスタイルエージェント
- Authors: Jing Hu, Chengming Feng, Shu Hu, Ming-Ching Chang, Xin Li, Xi Wu, Xin Wang,
- Abstract要約: 任意スタイルの転送は、任意の芸術的イメージのスタイルを他のコンテンツイメージに適用することを目的としている。
任意のスタイル転送を行うRLMiniStylerのための新しい強化学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 24.933672152267803
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Arbitrary style transfer aims to apply the style of any given artistic image to another content image. Still, existing deep learning-based methods often require significant computational costs to generate diverse stylized results. Motivated by this, we propose a novel reinforcement learning-based framework for arbitrary style transfer RLMiniStyler. This framework leverages a unified reinforcement learning policy to iteratively guide the style transfer process by exploring and exploiting stylization feedback, generating smooth sequences of stylized results while achieving model lightweight. Furthermore, we introduce an uncertainty-aware multi-task learning strategy that automatically adjusts loss weights to adapt to the content and style balance requirements at different training stages, thereby accelerating model convergence. Through a series of experiments across image various resolutions, we have validated the advantages of RLMiniStyler over other state-of-the-art methods in generating high-quality, diverse artistic image sequences at a lower cost. Codes are available at https://github.com/fengxiaoming520/RLMiniStyler.
- Abstract(参考訳): 任意スタイルの転送は、任意の芸術的イメージのスタイルを他のコンテンツイメージに適用することを目的としている。
それでも、既存のディープラーニングベースの手法は、多種多様なスタイリングされた結果を生成するのに、かなりの計算コストを必要とすることが多い。
そこで我々は,任意のスタイル転送を行うための新しい強化学習フレームワーク RLMiniStylerを提案する。
このフレームワークは、統合強化学習ポリシーを利用して、スタイライズフィードバックを探索・活用し、スタイリングされた結果のスムーズなシーケンスを生成しながら、モデル軽量化を図りながら、スタイル転送プロセスを反復的にガイドする。
さらに,不確実性を考慮したマルチタスク学習戦略を導入し,各学習段階におけるコンテンツとスタイルバランスの要求に適応するために損失重みを自動的に調整し,モデル収束を加速する。
画像の様々な解像度にわたる一連の実験を通じて、我々はRLMiniStylerが高品質で多様な芸術的画像列を低コストで生成する他の最先端手法よりも優れていることを検証した。
コードはhttps://github.com/fengxiaoming520/RLMiniStylerで公開されている。
関連論文リスト
- Pluggable Style Representation Learning for Multi-Style Transfer [41.09041735653436]
スタイルモデリングと転送を分離してスタイル転送フレームワークを開発する。
スタイルモデリングでは,スタイル情報をコンパクトな表現に符号化するスタイル表現学習方式を提案する。
スタイル転送のために,プラガブルなスタイル表現を用いて多様なスタイルに適応するスタイル認識型マルチスタイル転送ネットワーク(SaMST)を開発した。
論文 参考訳(メタデータ) (2025-03-26T09:44:40Z) - Harnessing the Latent Diffusion Model for Training-Free Image Style Transfer [24.46409405016844]
スタイル転送タスクは、スタイルイメージの視覚的属性を他のコンテンツイメージに転送する課題の1つである。
我々は、事前訓練された潜在拡散モデル(LDM)のための学習不要なスタイル伝達アルゴリズム、スタイルトラッキング逆拡散プロセス(STRDP)を提案する。
本アルゴリズムは, LDMの逆拡散過程において, 適応インスタンス正規化(AdaIN)関数を異なる方法で適用する。
論文 参考訳(メタデータ) (2024-10-02T09:28:21Z) - ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - MuseumMaker: Continual Style Customization without Catastrophic Forgetting [50.12727620780213]
本研究では,一組のカスタマイズスタイルを終末的に追従することで,画像の合成を可能にする方法であるMuseumMakerを提案する。
新しいカスタマイズスタイルに直面すると、新しい画像生成のためのトレーニングデータのスタイルを抽出し学習するスタイル蒸留損失モジュールを開発する。
これは、新しい訓練画像の内容による学習バイアスを最小限に抑え、少数ショット画像によって引き起こされる破滅的な過適合問題に対処することができる。
論文 参考訳(メタデータ) (2024-04-25T13:51:38Z) - Controlling Neural Style Transfer with Deep Reinforcement Learning [55.480819498109746]
本稿では,一段階のスタイル移行をステップワイズプロセスに分割する,最初の深層強化学習に基づくアーキテクチャを提案する。
提案手法は,コンテンツ画像の詳細や構造を早期に保存し,後続のステップでさらに多くのスタイルパターンを合成する傾向がある。
論文 参考訳(メタデータ) (2023-09-30T15:01:02Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Style-Agnostic Reinforcement Learning [9.338454092492901]
本稿では,スタイル伝達と逆学習の両方を用いて,スタイル非依存表現を学習する新しい手法を提案する。
本手法は,固有対向型生成器から生成される多様な画像スタイルでアクターを訓練する。
提案手法は,Procgen and Distracting Control Suiteベンチマークにおける最先端の手法よりも,競争力や性能の向上が期待できる。
論文 参考訳(メタデータ) (2022-08-31T13:45:00Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。