論文の概要: A Reinforcement Learning Approach for Sequential Spatial Transformer
Networks
- arxiv url: http://arxiv.org/abs/2106.14295v1
- Date: Sun, 27 Jun 2021 17:41:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 01:55:18.813442
- Title: A Reinforcement Learning Approach for Sequential Spatial Transformer
Networks
- Title(参考訳): 逐次空間変換器ネットワークのための強化学習手法
- Authors: Fatemeh Azimi, Federico Raue, Joern Hees, Andreas Dengel
- Abstract要約: 我々は、このタスクをマルコフ決定プロセス(MDP)として定式化し、このシーケンシャルな意思決定問題を解決するためにRLを使用する。
この方法では、サンプリングモジュールの微分可能性に縛られません。
MNISTデータセットとFashion-MNISTデータセットを用いて,本手法の有効性を検証するために,複数の実験を設計する。
- 参考スコア(独自算出の注目度): 6.585049648605185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spatial Transformer Networks (STN) can generate geometric transformations
which modify input images to improve the classifier's performance. In this
work, we combine the idea of STN with Reinforcement Learning (RL). To this end,
we break the affine transformation down into a sequence of simple and discrete
transformations. We formulate the task as a Markovian Decision Process (MDP)
and use RL to solve this sequential decision-making problem. STN architectures
learn the transformation parameters by minimizing the classification error and
backpropagating the gradients through a sub-differentiable sampling module. In
our method, we are not bound to the differentiability of the sampling modules.
Moreover, we have freedom in designing the objective rather than only
minimizing the error; e.g., we can directly set the target as maximizing the
accuracy. We design multiple experiments to verify the effectiveness of our
method using cluttered MNIST and Fashion-MNIST datasets and show that our
method outperforms STN with a proper definition of MDP components.
- Abstract(参考訳): 空間変換ネットワーク(STN)は、入力画像を変更する幾何学変換を生成し、分類器の性能を改善する。
本研究では,STNと強化学習(Reinforcement Learning, RL)の概念を組み合わせる。
この目的のために、アフィン変換を単純かつ離散的な変換の列に分解する。
我々は、このタスクをマルコフ決定プロセス(MDP)として定式化し、RLを用いてこのシーケンシャルな意思決定問題を解決する。
STNアーキテクチャは、分類誤差を最小化し、サブ微分可能なサンプリングモジュールを通して勾配をバックプロパゲートすることで変換パラメータを学習する。
提案手法では,サンプリングモジュールの微分可能性に拘束されない。
さらに、エラーを最小化するだけでなく、目的を設計する自由があり、例えば、ターゲットを直接、精度を最大化するものとして設定できる。
MNIST と Fashion-MNIST データセットを用いて,本手法の有効性を検証するために複数の実験を設計し,本手法が MDP 成分の適切な定義によりSTN よりも優れていることを示す。
関連論文リスト
- Accelerating Toeplitz Neural Network with Constant-time Inference
Complexity [21.88774274472737]
Toeplitz Neural Networks (TNN) は、様々なシーケンスモデリングタスクにおいて優れた性能を示した。
それらは、ログ線形の時空複雑さの恩恵を受けながら、Transformerベースのモデルよりも優れていた。
本稿では、TNNと状態空間モデル(SSM)の長所を、推論中にTNNをSSMに変換することで組み合わせることを目的とする。
論文 参考訳(メタデータ) (2023-11-15T07:50:57Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - A Simple Strategy to Provable Invariance via Orbit Mapping [14.127786615513978]
本稿では,グループ行動に関して,ネットワークアーキテクチャを確実に不変にする方法を提案する。
簡単に言えば、実際のネットワークにデータを送る前に、可能なトランスフォーメーションを“無効化”するつもりです。
論文 参考訳(メタデータ) (2022-09-24T03:40:42Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Use of Deterministic Transforms to Design Weight Matrices of a Neural
Network [14.363218103948782]
セルフサイズ推定フィードフォワードネットワーク (SSFN) はフィードフォワード多層ネットワークである。
本稿では,ランダム行列インスタンスの代わりに決定論的変換を用いる方法について検討する。
提案手法の有効性を,複数のベンチマークデータセットを用いたオブジェクト分類タスクに適用した。
論文 参考訳(メタデータ) (2021-10-06T10:21:24Z) - The Common Intuition to Transfer Learning Can Win or Lose: Case Studies for Linear Regression [26.5147705530439]
本稿では,学習対象パラメータと学習対象パラメータとの距離を正規化した線形回帰最適化として,対象タスクへの伝達学習アプローチを定義する。
十分関連するタスクに対して、最適に調整された転送学習手法が最適に調整されたリッジ回帰法より優れていることを示す。
論文 参考訳(メタデータ) (2021-03-09T18:46:01Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - FDA: Fourier Domain Adaptation for Semantic Segmentation [82.4963423086097]
本稿では,教師なし領域適応の簡易な手法について述べる。一方の低周波スペクトルを他方と交換することにより,音源と対象分布の相違を低減できる。
本手法を意味的セグメンテーション(semantic segmentation, 意味的セグメンテーション, 意味的セグメンテーション)で説明する。
以上の結果から,より高度な手法が学習に苦しむデータにおいて,単純な手順であってもニュアンス変動を低減できる可能性が示唆された。
論文 参考訳(メタデータ) (2020-04-11T22:20:48Z) - Plannable Approximations to MDP Homomorphisms: Equivariance under
Actions [72.30921397899684]
学習した表現に作用同値を強制する対照的な損失関数を導入する。
損失が 0 であるとき、決定論的マルコフ決定過程の準同型が存在することを証明している。
本研究では, 決定論的MDPに対して, 抽象MDPの最適方針を元のMDPに引き上げることに成功した。
論文 参考訳(メタデータ) (2020-02-27T08:29:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。