論文の概要: Memory Gym: Partially Observable Challenges to Memory-Based Agents in
Endless Episodes
- arxiv url: http://arxiv.org/abs/2309.17207v1
- Date: Fri, 29 Sep 2023 12:59:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 13:56:02.802390
- Title: Memory Gym: Partially Observable Challenges to Memory-Based Agents in
Endless Episodes
- Title(参考訳): memory gym: エンドレスエピソードにおけるメモリベースのエージェントの部分的に観察可能な課題
- Authors: Marco Pleines and Matthias Pallasch and Frank Zimmer and Mike Preuss
- Abstract要約: Memory Gymは、Deep Reinforcement Learningエージェントをテストするために設計されたユニークなベンチマークを導入した。
部分的に観測可能な2D環境、すなわちモルタル・メイヘム、ミステリー・パス、シーリング・スポットライトが特徴である。
- 参考スコア(独自算出の注目度): 4.7752948351582605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Memory Gym introduces a unique benchmark designed to test Deep Reinforcement
Learning agents, specifically comparing Gated Recurrent Unit (GRU) against
Transformer-XL (TrXL), on their ability to memorize long sequences, withstand
noise, and generalize. It features partially observable 2D environments with
discrete controls, namely Mortar Mayhem, Mystery Path, and Searing Spotlights.
These originally finite environments are extrapolated to novel endless tasks
that act as an automatic curriculum, drawing inspiration from the car game ``I
packed my bag". These endless tasks are not only beneficial for evaluating
efficiency but also intriguingly valuable for assessing the effectiveness of
approaches in memory-based agents. Given the scarcity of publicly available
memory baselines, we contribute an implementation driven by TrXL and Proximal
Policy Optimization. This implementation leverages TrXL as episodic memory
using a sliding window approach. In our experiments on the finite environments,
TrXL demonstrates superior sample efficiency in Mystery Path and outperforms in
Mortar Mayhem. However, GRU is more efficient on Searing Spotlights. Most
notably, in all endless tasks, GRU makes a remarkable resurgence, consistently
outperforming TrXL by significant margins.
- Abstract(参考訳): Memory Gymは、特にGRU(Gated Recurrent Unit)とTransformer-XL(TrXL)を比較し、長いシーケンスを記憶し、ノイズに耐え、一般化する機能について、Deep Reinforcement Learningエージェントをテストするために設計されたユニークなベンチマークを導入した。
部分的に観測可能な2D環境、すなわちモルタル・メイヘム、ミステリー・パス、シーリング・スポットライトが特徴である。
もともとの有限環境は、自動カリキュラムとして機能する新しい無限のタスクに外挿され、カーゲーム『'I pack my bag 』からインスピレーションを得ている。
これらの無限のタスクは効率を評価するのに有用であるだけでなく、メモリベースのエージェントにおけるアプローチの有効性を評価するのにも興味深い。
一般に利用可能なメモリベースラインが不足していることを踏まえ,TrXL と Proximal Policy Optimization による実装に貢献する。
この実装は、スライドウィンドウアプローチを用いてTrXLをエピソードメモリとして利用する。
有限環境における実験では, TrXLはミステリーパスやモルタル・メイヘムにおいて, 優れた試料効率を示す。
しかし、GRUはSeaning Spotlightsよりも効率的である。
最も注目すべきは、すべての無限のタスクにおいて、GRUは顕著な復活を行い、TrXLを著しく上回っていることである。
関連論文リスト
- SHERL: Synthesizing High Accuracy and Efficient Memory for Resource-Limited Transfer Learning [63.93193829913252]
本稿では,リソース制限シナリオに対するSHERLと呼ばれる革新的なMETL戦略を提案する。
初期経路では、中間出力は反冗長動作によって統合される。
遅延ルートでは、最小限の遅延事前トレーニングされたレイヤを利用することで、メモリオーバーヘッドのピーク需要を軽減できる。
論文 参考訳(メタデータ) (2024-07-10T10:22:35Z) - Reducing Fine-Tuning Memory Overhead by Approximate and Memory-Sharing Backpropagation [29.139579820699495]
この研究は、活性化関数と層正規化の観点から微調整におけるメモリオーバーヘッドを低減することを目的としている。
提案手法をバックプロパゲーショントレーニングに適用し,GELUおよびSiLU活性化関数のメモリ効率の代替を導出する。
さらに、メモリ共有バックプロパゲーション戦略を導入し、アクティベーションメモリを2つの隣接層で共有できるようにする。
論文 参考訳(メタデータ) (2024-06-24T03:09:15Z) - Topology-aware Embedding Memory for Continual Learning on Expanding Networks [63.35819388164267]
本稿では,メモリリプレイ技術を用いて,メモリ爆発問題に対処する枠組みを提案する。
Topology-aware Embedding Memory (TEM) を用いたPDGNNは最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-01-24T03:03:17Z) - EdgeMoE: Fast On-Device Inference of MoE-based Large Language Models [3.597163516372061]
EdgeMoEは、Mix-of-expert (MoE) LLM用に設計されたデバイス上の推論エンジンである。
ストレージ階層間でモデルを戦略的に分割することで、メモリと計算の効率を両立させる。
競合するベースラインソリューションと比較してメモリ節約とパフォーマンスが大幅に向上する。
論文 参考訳(メタデータ) (2023-08-28T06:56:08Z) - GLIMMER: generalized late-interaction memory reranker [29.434777627686692]
メモリ拡張は、外部情報を言語モデルに組み込むための強力なアプローチである。
LUMENはメモリを部分的にプリコンプリートし、より小さなライブエンコーダでメモリ表現を更新する。
GLIMMERは,1) メモリ上に浅い再ランカを適用して,高速で検索品質を劇的に向上させることにより,強力なメモリ表現への自由アクセスを活用できる。
論文 参考訳(メタデータ) (2023-06-17T01:54:25Z) - A Model or 603 Exemplars: Towards Memory-Efficient Class-Incremental
Learning [56.450090618578]
CIL(Class-Incremental Learning)は、この要件を満たすために、限られたメモリサイズでモデルをトレーニングすることを目的としている。
モデルサイズを総予算にカウントし,メモリサイズに整合する手法を比較すると,保存モデルは常に機能しないことを示す。
本稿では,メモリ効率のよい拡張可能なMOdelのための MEMO という,シンプルで効果的なベースラインを提案する。
論文 参考訳(メタデータ) (2022-05-26T08:24:01Z) - Recurrent Dynamic Embedding for Video Object Segmentation [54.52527157232795]
一定サイズのメモリバンクを構築するためにRDE(Recurrent Dynamic Embedding)を提案する。
本稿では, SAM を長時間の動画でより堅牢にするため, トレーニング段階での無バイアス誘導損失を提案する。
また、メモリバンクの異なる品質のマスクの埋め込みをネットワークが修復できるように、新たな自己補正戦略を設計する。
論文 参考訳(メタデータ) (2022-05-08T02:24:43Z) - Mesa: A Memory-saving Training Framework for Transformers [58.78933015299703]
本稿では,トランスフォーマーのためのメモリ節約トレーニングフレームワークであるMesaを紹介する。
Mesaは、フォワードパス中に正確なアクティベーションを使用し、低精度のアクティベーションを格納することで、トレーニング中のメモリ消費を減らす。
ImageNet、CIFAR-100、ADE20Kの実験は、Mesaがトレーニング中にメモリフットプリントの半分を削減できることを示した。
論文 参考訳(メタデータ) (2021-11-22T11:23:01Z) - Semantically Constrained Memory Allocation (SCMA) for Embedding in
Efficient Recommendation Systems [27.419109620575313]
ディープラーニングモデルの重要な課題は、数百万のカテゴリクラスやトークンを扱うことだ。
本稿では,記憶の共有を意味情報の重なりに比例して共有する,新しいメモリ共有埋め込み方式を提案する。
性能を維持しながらメモリフットプリントの大幅な削減を示す。
論文 参考訳(メタデータ) (2021-02-24T19:55:49Z) - Memformer: A Memory-Augmented Transformer for Sequence Modeling [55.780849185884996]
本稿では、シーケンスモデリングのための効率的なニューラルネットワークであるMemformerを紹介する。
我々のモデルは長いシーケンスを処理する際に線形時間複雑性と一定メモリ空間複雑性を実現する。
論文 参考訳(メタデータ) (2020-10-14T09:03:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。