論文の概要: Virtual Augmented Reality for Atari Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2310.08683v1
- Date: Thu, 12 Oct 2023 19:42:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 15:43:17.574681
- Title: Virtual Augmented Reality for Atari Reinforcement Learning
- Title(参考訳): アタリ強化学習のための仮想拡張現実
- Authors: Christian A. Schiller
- Abstract要約: 現状のイメージセグメンテーションモデルは、アタリビデオゲームをプレイするRLエージェントの性能を向上させることができるか?
その結果、SAMはRLエージェントの「仮想拡張現実」として機能し、特定の条件下でのAtariビデオゲームのパフォーマンスを高めることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reinforcement Learning (RL) has achieved significant milestones in the gaming
domain, most notably Google DeepMind's AlphaGo defeating human Go champion Ken
Jie. This victory was also made possible through the Atari Learning Environment
(ALE): The ALE has been foundational in RL research, facilitating significant
RL algorithm developments such as AlphaGo and others. In current Atari video
game RL research, RL agents' perceptions of its environment is based on raw
pixel data from the Atari video game screen with minimal image preprocessing.
Contrarily, cutting-edge ML research, external to the Atari video game RL
research domain, is focusing on enhancing image perception. A notable example
is Meta Research's "Segment Anything Model" (SAM), a foundation model capable
of segmenting images without prior training (zero-shot). This paper addresses a
novel methodical question: Can state-of-the-art image segmentation models such
as SAM improve the performance of RL agents playing Atari video games? The
results suggest that SAM can serve as a "virtual augmented reality" for the RL
agent, boosting its Atari video game playing performance under certain
conditions. Comparing RL agent performance results from raw and augmented pixel
inputs provides insight into these conditions. Although this paper was limited
by computational constraints, the findings show improved RL agent performance
for augmented pixel inputs and can inform broader research agendas in the
domain of "virtual augmented reality for video game playing RL agents".
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)は、Google DeepMindのAlphaGoが人間の囲碁チャンピオンKen Jieを破り、ゲーム分野で大きなマイルストーンを達成した。
この勝利はatari learning environment(ale)を通じても可能になった: aleはrl研究の基盤となり、alphagoなどの重要なrlアルゴリズムの開発が促進された。
現在のAtariビデオゲームRL研究において、RLエージェントの環境に対する認識は、最小限の画像前処理によるAtariビデオゲーム画面からの生のピクセルデータに基づいている。
対照的に,Atari ゲーム RL 研究領域以外の最先端ML研究は,イメージ知覚の向上に重点を置いている。
注目すべき例として、Meta Researchの"Segment Anything Model"(SAM)がある。
SAMのような最先端のイメージセグメンテーションモデルは、アタリビデオゲームをプレイするRLエージェントの性能を改善することができるか?
その結果、SAMはRLエージェントの「仮想拡張現実」として機能し、特定の条件下でのAtariビデオゲームのパフォーマンスを高めることが示唆された。
RLエージェントの性能を生および増設画素入力から比較すると,これらの条件に対する洞察が得られる。
本論文は計算制約により制限されていたが,RLエージェントの性能が向上し,RLエージェントをプレイするビデオゲームの仮想拡張現実」という領域において,より広範な研究課題が報告された。
関連論文リスト
- A Benchmark Environment for Offline Reinforcement Learning in Racing Games [54.83171948184851]
オフライン強化学習(英語: Offline Reinforcement Learning、ORL)は、従来の強化学習(RL)の高サンプリング複雑さを減らすための有望なアプローチである。
本稿では,ORL研究のための新しい環境であるOfflineManiaを紹介する。
TrackManiaシリーズにインスパイアされ、Unity 3Dゲームエンジンで開発された。
論文 参考訳(メタデータ) (2024-07-12T16:44:03Z) - Leveraging Reward Consistency for Interpretable Feature Discovery in
Reinforcement Learning [69.19840497497503]
一般的に使われているアクションマッチングの原理は、RLエージェントの解釈よりもディープニューラルネットワーク(DNN)の説明に近いと論じられている。
本稿では,RLエージェントの主目的である報酬を,RLエージェントを解釈する本質的な目的として考察する。
我々は,Atari 2600 ゲームと,挑戦的な自動運転車シミュレータ環境である Duckietown の検証と評価を行った。
論文 参考訳(メタデータ) (2023-09-04T09:09:54Z) - Game State Learning via Game Scene Augmentation [2.570570340104555]
我々はゲームエンジンを利用して、異なるゲーム状態の特定の、高度に制御されたレンダリングを定義し、合成する新しいゲームシーン拡張技術、GameCLRを紹介した。
この結果から,ゲームCLRはベースラインよりもゲーム映像からゲームの状態情報を正確に推測できる可能性が示唆された。
論文 参考訳(メタデータ) (2022-07-04T09:40:14Z) - Explaining Deep Reinforcement Learning Agents In The Atari Domain
through a Surrogate Model [78.69367679848632]
深部RLエージェントの説明を導出するための軽量で効果的な手法について述べる。
提案手法は,RLエージェントの画素ベース入力から解釈可能な知覚的入力表現への変換に依存する。
次に、ターゲットの深いRLエージェントの挙動を再現するために、それ自身解釈可能な代理モデルを訓練する。
論文 参考訳(メタデータ) (2021-10-07T05:01:44Z) - An Approach to Partial Observability in Games: Learning to Both Act and
Observe [0.0]
強化学習(RL)は、環境全体が見えるゲームを学ぶのに成功している。
しかし、RLアプローチはStarcraft IIのような複雑なゲームや、環境全体が見えない現実世界環境では挑戦されている。
より限られた視覚情報を持つこれらの複雑なゲームでは、エージェントは、ゲームで成功するためには、どの場所を見るか、どのように制限された視覚情報を使用するかを選択する必要がある。
論文 参考訳(メタデータ) (2021-08-11T17:45:56Z) - Shielding Atari Games with Bounded Prescience [8.874011540975715]
アタリゲームにおけるDRLエージェントの安全性を分析し、確保するための最初の正確な方法を提示します。
まず、30ゲームのための「安全な行動」を特徴づける43のプロパティのセットを与えます。
第2に,エージェントとゲームによって引き起こされるすべてのトレースを探索する手法を開発した。
第3に,境界状態探索と遮蔽を組み合わせた対策を提案する。
論文 参考訳(メタデータ) (2021-01-20T14:22:04Z) - Mastering Atari with Discrete World Models [61.7688353335468]
本稿では,強力な世界モデルのコンパクトな潜伏空間における予測から純粋に振る舞いを学習する強化学習エージェントであるDreamerV2を紹介する。
DreamerV2は、Atariベンチマークにおいて、個別に訓練された世界モデル内での振る舞いを学習することで、55タスクの人間レベルのパフォーマンスを達成する最初のエージェントである。
論文 参考訳(メタデータ) (2020-10-05T17:52:14Z) - Agent57: Outperforming the Atari Human Benchmark [15.75730239983062]
Atariゲームは強化学習における長年のベンチマークだ。
本稿では,Atari 57 ゲームにおいて,Atari 57 ゲームにおいてヒトの標準ベンチマークを上回り,初の深度 RL エージェントである Agent57 を提案する。
論文 参考訳(メタデータ) (2020-03-30T11:33:16Z) - Model-Based Reinforcement Learning for Atari [89.3039240303797]
エージェントがモデルフリーの手法よりも少ないインタラクションでAtariゲームを解くことができることを示す。
本実験は,エージェントと環境間の100kの相互作用の少ないデータ構造における,AtariゲームにおけるSimPLeの評価である。
論文 参考訳(メタデータ) (2019-03-01T15:40:19Z) - Learn to Interpret Atari Agents [106.21468537372995]
リージョン・センシティブ・レインボー(Rerea-sensitive Rainbow、RS-Rainbow)は、Qネットワークの強力なエージェントであるレインボーをベースとした、エンドツーエンドのトレーニング可能なネットワークである。
提案するエージェントは地域感応性レインボー (RS-Rainbow) と名付けられ, 強力なQネットワークエージェントであるレインボーをベースとしたエンド・ツー・エンドのトレーニング可能なネットワークである。
論文 参考訳(メタデータ) (2018-12-29T03:35:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。