論文の概要: Controlling Neural Style Transfer with Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2310.00405v1
- Date: Sat, 30 Sep 2023 15:01:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 04:28:49.801096
- Title: Controlling Neural Style Transfer with Deep Reinforcement Learning
- Title(参考訳): 深部強化学習によるニューラルスタイルの伝達制御
- Authors: Chengming Feng, Jing Hu, Xin Wang, Shu Hu, Bin Zhu, Xi Wu, Hongtu Zhu
and Siwei Lyu
- Abstract要約: 本稿では,一段階のスタイル移行をステップワイズプロセスに分割する,最初の深層強化学習に基づくアーキテクチャを提案する。
提案手法は,コンテンツ画像の詳細や構造を早期に保存し,後続のステップでさらに多くのスタイルパターンを合成する傾向がある。
- 参考スコア(独自算出の注目度): 55.480819498109746
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Controlling the degree of stylization in the Neural Style Transfer (NST) is a
little tricky since it usually needs hand-engineering on hyper-parameters. In
this paper, we propose the first deep Reinforcement Learning (RL) based
architecture that splits one-step style transfer into a step-wise process for
the NST task. Our RL-based method tends to preserve more details and structures
of the content image in early steps, and synthesize more style patterns in
later steps. It is a user-easily-controlled style-transfer method.
Additionally, as our RL-based model performs the stylization progressively, it
is lightweight and has lower computational complexity than existing one-step
Deep Learning (DL) based models. Experimental results demonstrate the
effectiveness and robustness of our method.
- Abstract(参考訳): ニューラルスタイルトランスファー(nst)のスタイライゼーションの程度を制御するのは、通常ハイパーパラメータのハンドエンジニアリングを必要とするため、少々難しい。
本稿では,nstタスクのためのステップワイズプロセスにワンステップスタイル転送を分割した,最初の深層強化学習(rl)ベースのアーキテクチャを提案する。
rlベースの手法では,コンテンツ画像の詳細と構造を早期に保存し,後段でより多くのスタイルパターンを合成する傾向がある。
ユーザが容易に制御できるスタイル転送方式である。
さらに、我々のRLベースのモデルは、段階的にスタイリングを行うため、軽量であり、既存の1ステップのディープラーニング(DL)モデルよりも計算複雑性が低い。
実験の結果,本手法の有効性とロバスト性が示された。
関連論文リスト
- LESA: Learnable LLM Layer Scaling-Up [57.0510934286449]
LLM(Large Language Models)をスクラッチからトレーニングするには膨大な計算資源が必要であるため、非常に高価である。
モデルスケーリングアップは、より小さなモデルのパラメータを活用してより大きなモデルを作成することで、有望なソリューションを提供する。
深度スケールアップのための新しい学習方法である textbfLESA を提案する。
論文 参考訳(メタデータ) (2025-02-19T14:58:48Z) - StyleRWKV: High-Quality and High-Efficiency Style Transfer with RWKV-like Architecture [29.178246094092202]
スタイル転送は、スタイルソースの芸術的表現ではなく、コンテンツを保存する新しいイメージを生成することを目的としている。
既存の手法の多くはトランスフォーマーや拡散モデルに基づいているが、2次計算の複雑さと高い推論時間に悩まされている。
本稿では,メモリ使用量と線形時間複雑性を制限した高品質なスタイル転送を実現するための新しいフレームワークであるStyleRWKVを提案する。
論文 参考訳(メタデータ) (2024-12-27T09:01:15Z) - STAR: Synthesis of Tailored Architectures [61.080157488857516]
本稿では, 適合型アーキテクチャ (STAR) の新規な合成手法を提案する。
提案手法は線形入力可変系の理論に基づく新しい探索空間を結合し,階層的な数値エンコーディングをアーキテクチャゲノムに支持する。STARゲノムは,複数のモデル品質と効率の指標に最適化するために,勾配のない進化的アルゴリズムで自動的に精製・組換えされる。
STARを用いて、多種多様な計算単位と相互接続パターンを活用し、品質、パラメータサイズ、および自動回帰言語モデリングのための推論キャッシュのフロンティアにおける高度に最適化されたトランスフォーマーとストライプハイブリッドモデルを改善する。
論文 参考訳(メタデータ) (2024-11-26T18:42:42Z) - Q-SFT: Q-Learning for Language Models via Supervised Fine-Tuning [62.984693936073974]
価値に基づく強化学習は、幅広いマルチターン問題に対する効果的なポリシーを学ぶことができる。
現在の値ベースのRL法は、特に大規模な言語モデルの設定にスケールすることが困難であることが証明されている。
本稿では,これらの欠点に対処する新しいオフラインRLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-07T21:36:52Z) - Advancing Neural Network Performance through Emergence-Promoting Initialization Scheme [0.0]
機械学習の創発は、トレーニングデータのスケールと構造から生じる能力の自発的な出現を指す。
我々は、出現の可能性を高めることを目的とした、新しい単純なニューラルネットワーク初期化スキームを導入する。
バッチ正規化の有無にかかわらず,モデル精度とトレーニング速度の両面で大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-07-26T18:56:47Z) - HiCAST: Highly Customized Arbitrary Style Transfer with Adapter Enhanced
Diffusion Models [84.12784265734238]
Arbitrary Style Transfer (AST)の目標は、あるスタイル参照の芸術的特徴を所定の画像/ビデオに注入することである。
各種のセマンティックな手がかりに基づいてスタイリング結果を明示的にカスタマイズできるHiCASTを提案する。
新たな学習目標をビデオ拡散モデルトレーニングに活用し,フレーム間の時間的一貫性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-01-11T12:26:23Z) - WSAM: Visual Explanations from Style Augmentation as Adversarial
Attacker and Their Influence in Image Classification [2.282270386262498]
本稿では,一般線形変換におけるランダム化の改善に加えて,ノイズベースサンプリングを用いたスタイル拡張アルゴリズムについて概説する。
すべてのモデルは、画像のスタイリングに対して驚くべき堅牢性を示すだけでなく、以前のすべての手法よりも優れており、STL-10データセットの最先端性能を上回っている。
論文 参考訳(メタデータ) (2023-08-29T02:50:36Z) - Deep Active Learning with Structured Neural Depth Search [18.180995603975422]
Active-iNASは、複数のモデルを訓練し、各アクティブラーニングサイクルの後に、その後のサンプルをクエリする最適な一般化性能でモデルを選択する。
本稿では,SVI(Structured Variational Inference)あるいはSNDS(Structured Neural Deep Search)と呼ばれる手法を用いた新しいアクティブ戦略を提案する。
同時に、理論上は、平均場推定に基づく現在のVIベースの手法が性能を低下させる可能性があることを実証している。
論文 参考訳(メタデータ) (2023-06-05T12:00:12Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Deep Convolutional Transform Learning -- Extended version [31.034188573071898]
この研究は、Deep Convolutional Transform Learning (DCTL)と呼ばれる、教師なしの表現学習技術を導入している。
畳み込み変換を積み重ねることで、我々のアプローチは異なるレイヤで独立したカーネルの集合を学ぶことができる。
教師なしの方法で抽出された機能は、分類やクラスタリングといった機械学習タスクの実行に使用できる。
論文 参考訳(メタデータ) (2020-10-02T14:03:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。