論文の概要: Case-based Reasoning for Better Generalization in Text-Adventure Games
- arxiv url: http://arxiv.org/abs/2110.08470v1
- Date: Sat, 16 Oct 2021 04:51:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-21 17:48:35.675359
- Title: Case-based Reasoning for Better Generalization in Text-Adventure Games
- Title(参考訳): テキストアドベンチャーゲームにおけるより良い一般化のためのケースベース推論
- Authors: Mattia Atzeni, Shehzaad Dhuliawala, Keerthiram Murugesan, Mrinmaya
Sachan
- Abstract要約: エージェントを訓練し、トレーニング分布から一般化するためのケースベース推論にインスパイアされた一般的な手法を提案する。
実験の結果,提案手法は既存の手法を一貫して改良し,優れた分布一般化を実現し,また,広く利用されている環境における新しい最先端の成果が得られることがわかった。
- 参考スコア(独自算出の注目度): 15.652823459179048
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-based games (TBG) have emerged as promising environments for driving
research in grounded language understanding and studying problems like
generalization and sample efficiency. Several deep reinforcement learning (RL)
methods with varying architectures and learning schemes have been proposed for
TBGs. However, these methods fail to generalize efficiently, especially under
distributional shifts. In a departure from deep RL approaches, in this paper,
we propose a general method inspired by case-based reasoning to train agents
and generalize out of the training distribution. The case-based reasoner
collects instances of positive experiences from the agent's interaction with
the world in the past and later reuses the collected experiences to act
efficiently. The method can be applied in conjunction with any existing
on-policy neural agent in the literature for TBGs. Our experiments show that
the proposed approach consistently improves existing methods, obtains good
out-of-distribution generalization, and achieves new state-of-the-art results
on widely used environments.
- Abstract(参考訳): テキストベースのゲーム(TBG)は、基礎言語理解と一般化やサンプル効率といった問題の研究を推進するための有望な環境として登場した。
TBGには様々なアーキテクチャや学習方式の深層強化学習法(RL)が提案されている。
しかし、これらの手法は、特に分布シフト下では、効率的に一般化できない。
深いrlアプローチからの脱却において,本稿では,エージェントを訓練し,トレーニング分布から一般化するために,ケースベース推論に触発された一般的な手法を提案する。
ケースベースの推論器は、過去にエージェントと世界との相互作用からポジティブな経験の事例を収集し、後に収集した経験を再利用して効率的に行動する。
この方法は、tbgsの文献において、既存のオンポリシー神経剤と組み合わせて適用することができる。
実験の結果,提案手法は既存の手法を一貫して改善し,優れた分散一般化を達成し,広く利用されている環境で新たな最先端結果を得ることができた。
関連論文リスト
- Towards Sample-Efficiency and Generalization of Transfer and Inverse Reinforcement Learning: A Comprehensive Literature Review [50.67937325077047]
本稿では,転送および逆強化学習(T-IRL)によるRLアルゴリズムのサンプル効率と一般化を実現するための総合的なレビューを行う。
以上の結果から,最近の研究成果の大部分は,人間のループとシム・トゥ・リアル戦略を活用することで,上記の課題に対処していることが示唆された。
IRL構造の下では、経験の少ない移行と、そのようなフレームワークのマルチエージェントおよびマルチインテンション問題への拡張を必要とするトレーニングスキームが近年研究者の優先事項となっている。
論文 参考訳(メタデータ) (2024-11-15T15:18:57Z) - Mind the Gap: A Generalized Approach for Cross-Modal Embedding Alignment [0.0]
Retrieval-Augmented Generation (RAG) システムは、意味的ギャップによって異なるテキストモダリティ間でコンテキストを検索する。
本稿では,これらのギャップを効率的に埋める汎用投影法を提案する。
私たちのアプローチでは、トレーニングや推論に最小限のリソースを必要とするため、スピード、正確性、データ効率を重視しています。
論文 参考訳(メタデータ) (2024-10-30T20:28:10Z) - On the Importance of Exploration for Generalization in Reinforcement
Learning [89.63074327328765]
本研究では,不確実性の高い状態の探索を支援する方法であるEDE: Exploration via Distributional Ensembleを提案する。
当社のアルゴリズムは,ProcgenとCrafterの両面で最先端を実現するための,最初のバリューベースアプローチである。
論文 参考訳(メタデータ) (2023-06-08T18:07:02Z) - Retrieval Augmentation for Commonsense Reasoning: A Unified Approach [64.63071051375289]
検索強化コモンセンス推論(RACo)の統一的枠組みを提案する。
提案するRACoは,他の知識強化手法よりも優れる。
論文 参考訳(メタデータ) (2022-10-23T23:49:08Z) - A Survey of Generalisation in Deep Reinforcement Learning [18.098133342169646]
深層強化学習の一般化は、展開時に目に見えない新しい状況に一般化するRLアルゴリズムを作ることを目的としている。
実世界のシナリオで強化学習アルゴリズムを展開するためには、これに取り組むことが不可欠です。
この調査は、この初期段階の分野の概要である。
論文 参考訳(メタデータ) (2021-11-18T16:53:02Z) - Generalization of Reinforcement Learning with Policy-Aware Adversarial
Data Augmentation [32.70482982044965]
本稿では,自動生成軌道データによる標準方針学習手法の強化を目的とした,新たなポリシー対応逆データ拡張手法を提案する。
提案手法の一般化性能を検討するために, 多数のRLタスクについて実験を行った。
その結果,本手法は訓練の多様性に限界があり,最先端の一般化テスト性能を実現することができることがわかった。
論文 参考訳(メタデータ) (2021-06-29T17:21:59Z) - Off-Policy Imitation Learning from Observations [78.30794935265425]
観察からの学習(lfo)は、多くのアプリケーションが利用できる実用的な強化学習シナリオである。
オフポリシ最適化を原則的に実現するサンプル効率の高いLfOアプローチを提案する。
我々のアプローチは、サンプル効率と性能の両面で最先端のロコモーションに匹敵する。
論文 参考訳(メタデータ) (2021-02-25T21:33:47Z) - Dynamics Generalization via Information Bottleneck in Deep Reinforcement
Learning [90.93035276307239]
本稿では,RLエージェントのより優れた一般化を実現するために,情報理論正則化目標とアニーリングに基づく最適化手法を提案する。
迷路ナビゲーションからロボットタスクまで、さまざまな領域において、我々のアプローチの極端な一般化の利点を実証する。
この研究は、タスク解決のために冗長な情報を徐々に取り除き、RLの一般化を改善するための原則化された方法を提供する。
論文 参考訳(メタデータ) (2020-08-03T02:24:20Z) - Invariant Causal Prediction for Block MDPs [106.63346115341862]
環境全体にわたる一般化は、実世界の課題への強化学習アルゴリズムの適用の成功に不可欠である。
本稿では,多環境環境における新しい観測を一般化するモデル不適合状態抽象化(MISA)を学習するための不変予測法を提案する。
論文 参考訳(メタデータ) (2020-03-12T21:03:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。