論文の概要: Growing with Experience: Growing Neural Networks in Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2506.11706v1
- Date: Fri, 13 Jun 2025 12:20:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.777735
- Title: Growing with Experience: Growing Neural Networks in Deep Reinforcement Learning
- Title(参考訳): 経験と成長: 深層強化学習におけるニューラルネットワークの成長
- Authors: Lukas Fehring, Marius Lindauer, Theresa Eimer,
- Abstract要約: ネットワークトレーサビリティを維持しつつ,ネットワーク能力の向上を図るため,GrowNNを提案する。
私たちは、初期ポリシーを学ぶために小さなネットワークをトレーニングし始めます。次に、エンコードされた関数を変更することなくレイヤーを追加します。
その後のアップデートでは、追加のレイヤを使用して、より表現力のあるポリシを学ぶことができ、ポリシの複雑さが増大するにつれて、キャパシティを追加することができる。
MiniHack と Mujoco の実験ではエージェント性能が向上し,GrownNN-deeper ネットワークは MiniHack Room で最大48%,Ant で72% に向上した。
- 参考スコア(独自算出の注目度): 16.2203969008611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While increasingly large models have revolutionized much of the machine learning landscape, training even mid-sized networks for Reinforcement Learning (RL) is still proving to be a struggle. This, however, severely limits the complexity of policies we are able to learn. To enable increased network capacity while maintaining network trainability, we propose GrowNN, a simple yet effective method that utilizes progressive network growth during training. We start training a small network to learn an initial policy. Then we add layers without changing the encoded function. Subsequent updates can utilize the added layers to learn a more expressive policy, adding capacity as the policy's complexity increases. GrowNN can be seamlessly integrated into most existing RL agents. Our experiments on MiniHack and Mujoco show improved agent performance, with incrementally GrowNN-deeper networks outperforming their respective static counterparts of the same size by up to 48% on MiniHack Room and 72% on Ant.
- Abstract(参考訳): ますます大きなモデルが機械学習のランドスケープの多くに革命をもたらしたが、強化学習(RL)のための中規模のネットワークのトレーニングでさえも、まだ苦戦している。
しかし、これは私たちが学べるポリシーの複雑さを著しく制限します。
ネットワークのトレーニング性を維持しながらネットワーク容量を増大させるため,トレーニング中に進行的なネットワーク成長を利用する簡易かつ効果的なGrowNNを提案する。
私たちは、初期ポリシーを学ぶために、小さなネットワークをトレーニングし始めます。
そして、エンコードされた関数を変更せずにレイヤーを追加します。
その後のアップデートでは、追加のレイヤを使用して、より表現力のあるポリシを学ぶことができ、ポリシの複雑さが増大するにつれて、キャパシティを追加することができる。
GrowNNは既存のほとんどのRLエージェントにシームレスに統合できる。
MiniHack と Mujoco の実験ではエージェント性能が向上し,GrownNN-deeper ネットワークは MiniHack Room で最大48%,Ant で72% に向上した。
関連論文リスト
- 1000 Layer Networks for Self-Supervised RL: Scaling Depth Can Enable New Goal-Reaching Capabilities [18.997261006638798]
自己教師付き学習のスケールアップは言語とビジョンのブレークスルーを加速させたが、強化学習(RL)では同等の進歩がいまだに残されている。
本稿では,ネットワーク深度が重要な要素となる自己教師型RLの構築ブロックについて検討する。
論文 参考訳(メタデータ) (2025-03-19T03:33:57Z) - Achieving Network Resilience through Graph Neural Network-enabled Deep Reinforcement Learning [64.20847540439318]
深層強化学習(DRL)は多くの重要な通信ネットワークのタスクで広く利用されている。
グラフニューラルネットワーク(GNN)とDRLを組み合わせて、GNNを用いてネットワークの非構造的特徴を抽出する研究もある。
本稿では,GNNとDRLを組み合わせたレジリエントネットワークの構築について検討する。
論文 参考訳(メタデータ) (2025-01-19T15:22:17Z) - Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - Optimizing Performance of Feedforward and Convolutional Neural Networks
through Dynamic Activation Functions [0.46040036610482665]
ディープラーニングトレーニングアルゴリズムは近年,音声やテキスト,画像ビデオなど,多くの分野で大きな成功を収めています。
深い層と深い層が提案され、152層ほどのresnet構造で大きな成功を収めた。
浅層畳み込みニューラルネットワーク(CNN)はまだ活発な研究であり、いくつかの現象はまだ説明されていない。
論文 参考訳(メタデータ) (2023-08-10T17:39:51Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - Training Larger Networks for Deep Reinforcement Learning [18.193180866998333]
ネットワーク容量の増加は性能を向上しないことを示す。
本稿では,1)DenseNet接続の広いネットワーク,2)RLのトレーニングから表現学習を分離する,3)オーバーフィッティング問題を軽減するための分散トレーニング手法を提案する。
この3倍の手法を用いることで、非常に大きなネットワークをトレーニングでき、性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-02-16T02:16:54Z) - Sparsity in Deep Learning: Pruning and growth for efficient inference
and training in neural networks [78.47459801017959]
Sparsityは、モバイル機器に適合する通常のネットワークのメモリフットプリントを減らすことができる。
ニューラルネットワークの要素を除去および追加するためのアプローチ、モデルの疎性を達成するための異なるトレーニング戦略、実際に疎性を利用するメカニズムについて説明する。
論文 参考訳(メタデータ) (2021-01-31T22:48:50Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。