論文の概要: Self-Play Reinforcement Learning for Fast Image Retargeting
- arxiv url: http://arxiv.org/abs/2010.00909v1
- Date: Fri, 2 Oct 2020 10:31:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 01:41:24.021860
- Title: Self-Play Reinforcement Learning for Fast Image Retargeting
- Title(参考訳): 高速イメージリターゲティングのためのセルフプレイ強化学習
- Authors: Nobukatsu Kajiura, Satoshi Kosugi, Xueting Wang, Toshihiko Yamasaki
- Abstract要約: 強化学習エージェントを用いて各ステップの最適演算子を予測する手法を提案する。
実験の結果,処理時間を3桁に短縮したマルチオペレータ画像が得られた。
- 参考スコア(独自算出の注目度): 38.91194252490872
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we address image retargeting, which is a task that adjusts
input images to arbitrary sizes. In one of the best-performing methods called
MULTIOP, multiple retargeting operators were combined and retargeted images at
each stage were generated to find the optimal sequence of operators that
minimized the distance between original and retargeted images. The limitation
of this method is in its tremendous processing time, which severely prohibits
its practical use. Therefore, the purpose of this study is to find the optimal
combination of operators within a reasonable processing time; we propose a
method of predicting the optimal operator for each step using a reinforcement
learning agent. The technical contributions of this study are as follows.
Firstly, we propose a reward based on self-play, which will be insensitive to
the large variance in the content-dependent distance measured in MULTIOP.
Secondly, we propose to dynamically change the loss weight for each action to
prevent the algorithm from falling into a local optimum and from choosing only
the most frequently used operator in its training. Our experiments showed that
we achieved multi-operator image retargeting with less processing time by three
orders of magnitude and the same quality as the original multi-operator-based
method, which was the best-performing algorithm in retargeting tasks.
- Abstract(参考訳): 本研究では,任意のサイズに入力画像を調整するタスクである画像再ターゲティングに対処する。
MultiOPと呼ばれるベストパフォーマンスの手法の1つにおいて、複数のリターゲット演算子を組み合わせて各ステージにおけるリターゲット画像を生成し、元の画像とリターゲット画像の距離を最小化する演算子の最適シーケンスを求める。
この方法の限界は膨大な処理時間であり、実用的使用を厳しく禁止している。
そこで本研究の目的は,適切な処理時間内にオペレータの最適な組み合わせを見つけることであり,強化学習エージェントを用いて各ステップの最適な演算子を予測する方法を提案する。
本研究の技術的貢献は以下の通りである。
まず,MultiOPで測定されたコンテンツ依存距離の大きなばらつきに敏感な自己演奏に基づく報酬を提案する。
次に,各動作の損失重みを動的に変化させることにより,アルゴリズムが局所最適に陥り,最も頻繁に使用されるオペレータのみを選択することを防止する。
提案手法は,処理時間を3桁削減し,元のマルチオペレータベース法と同品質のマルチオペレータ画像再ターゲティングを実現し,タスクの再ターゲティングに最適なアルゴリズムであることを示した。
関連論文リスト
- AdaIR: Exploiting Underlying Similarities of Image Restoration Tasks with Adapters [57.62742271140852]
AdaIRは、パフォーマンスを犠牲にすることなく、低コストで効率的なトレーニングを可能にする新しいフレームワークである。
AdaIRは軽量でタスク固有のモジュールのトレーニングのみを必要とし、より効率的なストレージとトレーニング体制を確保する。
論文 参考訳(メタデータ) (2024-04-17T15:31:06Z) - Noise-free Optimization in Early Training Steps for Image
Super-Resolution [20.169700745745462]
本研究では,対象のHR画像を2つのサブコンポーネントに分解することで,基礎となる構成要素をよりよく理解することを目的とする。
本研究は, SISRの誤った性質を把握できないことを示唆するものである。
本研究では,バニラ訓練の初期段階において,固有雑音項を効果的に除去できる新しい最適化手法を提案する。
論文 参考訳(メタデータ) (2023-12-29T09:13:09Z) - Backward Curriculum Reinforcement Learning [0.0]
現在の強化学習アルゴリズムは、前向きに生成された軌道を使ってエージェントを訓練する。
十分な探索から強化学習の価値を実現する一方で、このアプローチはサンプル効率を失う際のトレードオフにつながる。
本稿では,従来の前進路ではなく,後進路を用いてエージェントを訓練する新しい後進カリキュラム強化学習を提案する。
論文 参考訳(メタデータ) (2022-12-29T08:23:39Z) - Loop Unrolled Shallow Equilibrium Regularizer (LUSER) -- A
Memory-Efficient Inverse Problem Solver [26.87738024952936]
逆問題では、潜在的に破損し、しばしば不適切な測定結果から、いくつかの基本的な関心のシグナルを再構築することを目的としている。
浅い平衡正規化器(L)を用いたLUアルゴリズムを提案する。
これらの暗黙のモデルは、より深い畳み込みネットワークと同じくらい表現力があるが、トレーニング中にはるかにメモリ効率が良い。
論文 参考訳(メタデータ) (2022-10-10T19:50:37Z) - Conjugated Discrete Distributions for Distributional Reinforcement
Learning [0.0]
最も成功した方法の1つは、非決定論的プロセスがある場合、最適なポリシーを得られないことを示します。
我々は、分散強化学習が、この状況を完全に改善するのに役立つと論じている。
論文 参考訳(メタデータ) (2021-12-14T14:14:49Z) - Dynamic Iterative Refinement for Efficient 3D Hand Pose Estimation [87.54604263202941]
本稿では,従来の推定値の修正に部分的レイヤを反復的に活用する,小さなディープニューラルネットワークを提案する。
学習したゲーティング基準を用いて、ウェイトシェアリングループから抜け出すかどうかを判断し、モデルにサンプルごとの適応を可能にする。
提案手法は,広く使用されているベンチマークの精度と効率の両面から,最先端の2D/3Dハンドポーズ推定手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-11T23:31:34Z) - StEP: Style-based Encoder Pre-training for Multi-modal Image Synthesis [68.3787368024951]
マルチモーダルイメージ・ツー・イメージ(I2I)翻訳のための新しいアプローチを提案する。
我々は、出力領域の可変性をモデル化する潜伏埋め込みをジェネレータと共同で学習する。
具体的には、新しいプロキシタスクを用いて汎用的なスタイルエンコーダを事前訓練し、任意のドメインから低次元のスタイル潜在空間への画像の埋め込みを学習する。
論文 参考訳(メタデータ) (2021-04-14T19:58:24Z) - Attention Actor-Critic algorithm for Multi-Agent Constrained
Co-operative Reinforcement Learning [3.296127938396392]
協調的な環境下での強化学習(RL)エージェントの最適動作の計算問題について考察する。
我々はこのアルゴリズムを制約付きマルチエージェントRL設定に拡張する。
論文 参考訳(メタデータ) (2021-01-07T03:21:15Z) - Unsupervised Learning of Visual Features by Contrasting Cluster
Assignments [57.33699905852397]
ペア比較の計算を必要とせず,コントラスト的手法を生かしたオンラインアルゴリズムSwaVを提案する。
本手法では,クラスタ割り当て間の一貫性を保ちながら,同時にデータをクラスタ化する。
我々の方法は大規模で小さなバッチで訓練でき、無制限のデータにスケールできる。
論文 参考訳(メタデータ) (2020-06-17T14:00:42Z) - Fast Template Matching and Update for Video Object Tracking and
Segmentation [56.465510428878]
私たちが取り組もうとしている主な課題は、フレームの列にまたがるマルチインスタンスの半教師付きビデオオブジェクトセグメンテーションである。
課題は、結果を予測するためのマッチングメソッドの選択と、ターゲットテンプレートを更新するかどうかを決定することである。
本稿では,これら2つの決定を同時に行うために,強化学習を利用する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-16T08:58:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。