論文の概要: Dynamic Sparse Training for Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2106.04217v1
- Date: Tue, 8 Jun 2021 09:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 16:16:20.655895
- Title: Dynamic Sparse Training for Deep Reinforcement Learning
- Title(参考訳): 深部強化学習のためのダイナミックスパーストレーニング
- Authors: Ghada Sokar, Elena Mocanu, Decebal Constantin Mocanu, Mykola
Pechenizkiy, Peter Stone
- Abstract要約: 我々は,ニューラルネットワークをスクラッチから切り離した深層強化学習エージェントを動的に訓練する試みを初めて提案する。
私たちのアプローチは、既存の深層強化学習アルゴリズムに簡単に統合できます。
我々は,オープンAI体育連続制御タスクに対するアプローチを評価した。
- 参考スコア(独自算出の注目度): 36.66889208433228
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning has achieved significant success in many
decision-making tasks in various fields. However, it requires a large training
time of dense neural networks to obtain a good performance. This hinders its
applicability on low-resource devices where memory and computation are strictly
constrained. In a step towards enabling deep reinforcement learning agents to
be applied to low-resource devices, in this work, we propose for the first time
to dynamically train deep reinforcement learning agents with sparse neural
networks from scratch. We adopt the evolution principles of dynamic sparse
training in the reinforcement learning paradigm and introduce a training
algorithm that optimizes the sparse topology and the weight values jointly to
dynamically fit the incoming data. Our approach is easy to be integrated into
existing deep reinforcement learning algorithms and has many favorable
advantages. First, it allows for significant compression of the network size
which reduces the memory and computation costs substantially. This would
accelerate not only the agent inference but also its training process. Second,
it speeds up the agent learning process and allows for reducing the number of
required training steps. Third, it can achieve higher performance than training
the dense counterpart network. We evaluate our approach on OpenAI gym
continuous control tasks. The experimental results show the effectiveness of
our approach in achieving higher performance than one of the state-of-art
baselines with a 50\% reduction in the network size and floating-point
operations (FLOPs). Moreover, our proposed approach can reach the same
performance achieved by the dense network with a 40-50\% reduction in the
number of training steps.
- Abstract(参考訳): 深い強化学習は様々な分野で多くの意思決定タスクで大きな成功を収めてきた。
しかし、優れた性能を得るためには、高密度ニューラルネットワークのトレーニング時間が大きい。
これにより、メモリと計算が厳格に制限された低リソースデバイスへの適用が妨げられる。
本研究では,低リソースデバイスに深層強化学習エージェントを適用可能にするためのステップとして,疎ニューラルネットワークを用いた深層強化学習エージェントをスクラッチから動的にトレーニングすることを提案する。
我々は,強化学習パラダイムにおける動的スパーストレーニングの進化原理を取り入れ,スパーストポロジーと重み値を同時に最適化し,入力データに動的に適合するトレーニングアルゴリズムを導入する。
我々のアプローチは、既存の深層強化学習アルゴリズムに容易に統合でき、多くの利点があります。
まず、ネットワークサイズの大幅な圧縮を可能にし、メモリと計算コストを大幅に削減します。
これにより、エージェント推論だけでなく、トレーニングプロセスも加速される。
第二に、エージェント学習プロセスを高速化し、必要なトレーニングステップの数を減らすことができる。
第三に、密度の高いネットワークのトレーニングよりも高いパフォーマンスを達成することができる。
OpenAI体育連続制御タスクに対する我々のアプローチを評価する。
実験の結果,ネットワークサイズと浮動小数点演算(FLOP)を50%削減した最先端のベースラインよりも高い性能を実現するためのアプローチの有効性が示された。
さらに,提案手法は,40~50\%のトレーニングステップを削減し,密集ネットワークによって達成されたのと同じ性能に到達できる。
関連論文リスト
- Efficient Stagewise Pretraining via Progressive Subnetworks [53.00045381931778]
一般的な見方では、レイヤのドロップのような段階的なドロップ戦略は、スタック方式のアプローチと比べて効果がない。
本稿では, 適切な設計で, 戦略の廃止は, 積み重ね手法よりも競争力があることを示すことによって, この概念に挑戦する。
本稿では,各ステップでランダムサブネットワークのみを選択し,訓練し,段階的に拡大するランダムパートトレーニング(RAPTR)を提案する。
論文 参考訳(メタデータ) (2024-02-08T18:49:09Z) - Deep Fusion: Efficient Network Training via Pre-trained Initializations [3.9146761527401424]
我々は、より小さなネットワークの初期化を事前訓練したネットワークトレーニングの効率的なアプローチであるDeep Fusionを提案する。
我々の実験は、Deep Fusionが訓練プロセスを加速するだけでなく、計算要求を減少させる実用的で効果的なアプローチであることを示す。
我々は,Deep Fusionの最適利用を導く理論的枠組みを検証し,トレーニング時間と資源消費の両方を著しく削減することを示した。
論文 参考訳(メタデータ) (2023-06-20T21:30:54Z) - Low Rank Optimization for Efficient Deep Learning: Making A Balance
between Compact Architecture and Fast Training [36.85333789033387]
本稿では,効率的なディープラーニング技術のための低ランク最適化に焦点を当てる。
空間領域では、ディープニューラルネットワークは、ネットワークパラメータの低階近似によって圧縮される。
時間領域では、ネットワークパラメータをいくつかのサブスペースでトレーニングできるため、高速収束のための効率的なトレーニングが可能になる。
論文 参考訳(メタデータ) (2023-03-22T03:55:16Z) - Learning in Feedback-driven Recurrent Spiking Neural Networks using
full-FORCE Training [4.124948554183487]
本稿では,トレーニング中にのみ第2のネットワークを導入するRSNNの教師付きトレーニング手順を提案する。
提案したトレーニング手順は、リカレント層とリードアウト層の両方のターゲットを生成することで構成される。
本研究では,8つの力学系をモデル化するためのフルFORCEトレーニング手法の性能向上とノイズ堅牢性を示す。
論文 参考訳(メタデータ) (2022-05-26T19:01:19Z) - Low-rank lottery tickets: finding efficient low-rank neural networks via
matrix differential equations [2.3488056916440856]
効率的なローランクワークを見つけるための新しいアルゴリズムを提案する。
これらの作業は、トレーニングフェーズですでに決定され、適応されています。
本手法は,所望の近似精度を達成するために,訓練中のランクを自動的に動的に適応させる。
論文 参考訳(メタデータ) (2022-05-26T18:18:12Z) - Dimensionality Reduced Training by Pruning and Freezing Parts of a Deep
Neural Network, a Survey [69.3939291118954]
最先端のディープラーニングモデルには、何十億にも達するパラメータカウントがある。そのようなモデルのトレーニング、保存、転送は、エネルギーと時間を要するため、コストがかかる。
モデル圧縮は、ストレージと転送コストを低減し、フォワードおよび/または後方パスでの計算数を減少させることで、トレーニングをより効率的にすることができる。
この研究は、トレーニング全体を通してディープラーニングモデルでトレーニングされた重量を減らす方法に関する調査である。
論文 参考訳(メタデータ) (2022-05-17T05:37:08Z) - Training Larger Networks for Deep Reinforcement Learning [18.193180866998333]
ネットワーク容量の増加は性能を向上しないことを示す。
本稿では,1)DenseNet接続の広いネットワーク,2)RLのトレーニングから表現学習を分離する,3)オーバーフィッティング問題を軽減するための分散トレーニング手法を提案する。
この3倍の手法を用いることで、非常に大きなネットワークをトレーニングでき、性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-02-16T02:16:54Z) - Sparsity in Deep Learning: Pruning and growth for efficient inference
and training in neural networks [78.47459801017959]
Sparsityは、モバイル機器に適合する通常のネットワークのメモリフットプリントを減らすことができる。
ニューラルネットワークの要素を除去および追加するためのアプローチ、モデルの疎性を達成するための異なるトレーニング戦略、実際に疎性を利用するメカニズムについて説明する。
論文 参考訳(メタデータ) (2021-01-31T22:48:50Z) - Subset Sampling For Progressive Neural Network Learning [106.12874293597754]
プログレッシブニューラルネットワーク学習は、ネットワークのトポロジを漸進的に構築し、トレーニングデータに基づいてパラメータを最適化するアルゴリズムのクラスである。
段階的なトレーニングステップ毎にトレーニングデータのサブセットを活用することで,このプロセスの高速化を提案する。
オブジェクト,シーン,顔の認識における実験結果から,提案手法が最適化手順を大幅に高速化することを示す。
論文 参考訳(メタデータ) (2020-02-17T18:57:33Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z) - Large Batch Training Does Not Need Warmup [111.07680619360528]
大きなバッチサイズを使用してディープニューラルネットワークをトレーニングすることは、有望な結果を示し、多くの現実世界のアプリケーションに利益をもたらしている。
本稿では,大規模バッチ学習のための全層適応レートスケーリング(CLARS)アルゴリズムを提案する。
分析に基づいて,このギャップを埋め,3つの一般的な大規模バッチトレーニング手法の理論的洞察を提示する。
論文 参考訳(メタデータ) (2020-02-04T23:03:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。