論文の概要: An Approach to Partial Observability in Games: Learning to Both Act and
Observe
- arxiv url: http://arxiv.org/abs/2108.05701v1
- Date: Wed, 11 Aug 2021 17:45:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-13 14:46:46.678579
- Title: An Approach to Partial Observability in Games: Learning to Both Act and
Observe
- Title(参考訳): ゲームにおける部分的可観測性へのアプローチ:行為と観察の両方を学ぶ
- Authors: Elizabeth Gilmour, Noah Plotkin, Leslie Smith
- Abstract要約: 強化学習(RL)は、環境全体が見えるゲームを学ぶのに成功している。
しかし、RLアプローチはStarcraft IIのような複雑なゲームや、環境全体が見えない現実世界環境では挑戦されている。
より限られた視覚情報を持つこれらの複雑なゲームでは、エージェントは、ゲームで成功するためには、どの場所を見るか、どのように制限された視覚情報を使用するかを選択する必要がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning (RL) is successful at learning to play games where the
entire environment is visible. However, RL approaches are challenged in complex
games like Starcraft II and in real-world environments where the entire
environment is not visible. In these more complex games with more limited
visual information, agents must choose where to look and how to optimally use
their limited visual information in order to succeed at the game. We verify
that with a relatively simple model the agent can learn where to look in
scenarios with a limited visual bandwidth. We develop a method for masking part
of the environment in Atari games to force the RL agent to learn both where to
look and how to play the game in order to study where the RL agent learns to
look. In addition, we develop a neural network architecture and method for
allowing the agent to choose where to look and what action to take in the Pong
game. Further, we analyze the strategies the agent learns to better understand
how the RL agent learns to play the game.
- Abstract(参考訳): 強化学習(RL)は、環境全体が見えるゲームを学ぶのに成功している。
しかし、RLアプローチはStarcraft IIのような複雑なゲームや、環境全体が見えない現実世界環境では挑戦されている。
より限られた視覚情報を持つより複雑なゲームでは、エージェントは、ゲームで成功するために、彼らの制限された視覚情報を最適に利用する方法を選択する必要がある。
比較的単純なモデルで、エージェントは限られた視覚帯域幅のシナリオをどこで見るかを学ぶことができる。
本研究では,アタリゲームにおける環境の一部をマスキングする手法を開発し,RLエージェントがどのように見えるか,どのようにプレイするかを学習するよう強制的にRLエージェントに強制する。
さらに,Pongゲームにおいて,エージェントがどこを見るか,どのようなアクションをとるかを選択できるようにするニューラルネットワークアーキテクチャと手法を開発した。
さらに,エージェントが学習した戦略を分析し,rlエージェントがゲームのプレイを学習する方法をよりよく理解する。
関連論文リスト
- METRA: Scalable Unsupervised RL with Metric-Aware Abstraction [69.90741082762646]
Metric-Aware Abstraction (METRA)は、教師なし強化学習の新たな目標である。
潜在空間のあらゆる方向に移動することを学ぶことで、METRAは様々な振る舞いの抽出可能な集合を得る。
複雑なピクセルベースの環境においても,METRAは様々な有用な振る舞いを発見できることを示す。
論文 参考訳(メタデータ) (2023-10-13T06:43:11Z) - Efficient RL via Disentangled Environment and Agent Representations [40.114817446130935]
本稿では,その形状やマスクなどのエージェントの視覚的知識を用いて,RLアルゴリズムのそのような構造化表現を学習するためのアプローチを提案する。
提案手法は,5つのロボットにまたがる18種類の難解な視覚シミュレーション環境に対して,最先端のモデルフリーアプローチより優れることを示す。
論文 参考訳(メタデータ) (2023-09-05T17:59:45Z) - SPRING: Studying the Paper and Reasoning to Play Games [102.5587155284795]
我々は,ゲーム本来の学術論文を読み取るための新しいアプローチ,SPRINGを提案し,大言語モデル(LLM)を通してゲームの説明とプレイの知識を利用する。
実験では,クラフトオープンワールド環境の設定下で,異なる形態のプロンプトによって引き起こされる文脈内「推論」の品質について検討した。
我々の実験は、LLMが一貫したチェーン・オブ・シークレットによって誘導されると、洗練された高レベル軌道の完成に大きな可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-05-24T18:14:35Z) - Agent-Controller Representations: Principled Offline RL with Rich
Exogenous Information [49.06422815335159]
オフラインで収集したデータからエージェントを制御する学習は、実世界の強化学習(RL)の応用にとって不可欠である
本稿では,この問題を研究可能なオフラインRLベンチマークを提案する。
現代の表現学習技術は、ノイズが複雑で時間依存のプロセスであるデータセットで失敗する可能性がある。
論文 参考訳(メタデータ) (2022-10-31T22:12:48Z) - Reinforcement Learning Agents in Colonel Blotto [0.0]
エージェントベースモデルの特定の例に着目し、強化学習(RL)を用いてエージェントの環境における行動の訓練を行う。
我々はRLエージェントが1つの対戦相手を手動で打ち負かし、対戦相手の数が増えると依然として非常によく機能することを示した。
また、RLエージェントを解析し、最も高いQ値と低いQ値を与えるアクションを見て、どのような戦略が到達したかを調べる。
論文 参考訳(メタデータ) (2022-04-04T16:18:01Z) - How does AI play football? An analysis of RL and real-world football
strategies [2.1628586087680075]
強化学習(RL)により、幅広い応用に優れた高度なエージェントの開発が可能になった。
サッカーRLエージェントのプレイスタイル特性について検討し、トレーニング中に戦略がどのように発展するかを明らかにする。
学習した戦略は、実際のサッカー選手の戦略と比較される。
論文 参考訳(メタデータ) (2021-11-24T08:44:23Z) - Explaining Deep Reinforcement Learning Agents In The Atari Domain
through a Surrogate Model [78.69367679848632]
深部RLエージェントの説明を導出するための軽量で効果的な手法について述べる。
提案手法は,RLエージェントの画素ベース入力から解釈可能な知覚的入力表現への変換に依存する。
次に、ターゲットの深いRLエージェントの挙動を再現するために、それ自身解釈可能な代理モデルを訓練する。
論文 参考訳(メタデータ) (2021-10-07T05:01:44Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z) - Text-based RL Agents with Commonsense Knowledge: New Challenges,
Environments and Baselines [40.03754436370682]
テキストワールド・コモンセンスにコモンセンスの知識を取り入れたエージェントは,より効率的に行動しながら,より優れた行動を示す。
我々は,TWC上での人的パフォーマンスを推定するユーザスタディを実施し,今後の改善の余地が十分にあることを示す。
論文 参考訳(メタデータ) (2020-10-08T06:20:00Z) - Model-Based Reinforcement Learning for Atari [89.3039240303797]
エージェントがモデルフリーの手法よりも少ないインタラクションでAtariゲームを解くことができることを示す。
本実験は,エージェントと環境間の100kの相互作用の少ないデータ構造における,AtariゲームにおけるSimPLeの評価である。
論文 参考訳(メタデータ) (2019-03-01T15:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。