論文の概要: Do We Need Transformers to Play FPS Video Games?
- arxiv url: http://arxiv.org/abs/2504.17891v1
- Date: Thu, 24 Apr 2025 19:10:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.555735
- Title: Do We Need Transformers to Play FPS Video Games?
- Title(参考訳): FPSビデオゲームをプレイするにはトランスフォーマーが必要か?
- Authors: Karmanbir Batth, Krish Sethi, Aly Shariff, Leo Shi, Hetul Patel,
- Abstract要約: オンライン学習のためのDeep Transformer Q- learning Networks(DTQN)とオフライン強化学習のためのDecision Transformer(DT)である。
我々は、トランスフォーマーがアタリゲームでうまく機能していたかもしれないが、より伝統的な手法は、VizDoom環境における両方の設定においてトランスフォーマーベースの方法よりも優れていると結論付けた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we explore the Transformer based architectures for reinforcement learning in both online and offline settings within the Doom game environment. Our investigation focuses on two primary approaches: Deep Transformer Q- learning Networks (DTQN) for online learning and Decision Transformers (DT) for offline reinforcement learning. DTQN leverages the sequential modelling capabilities of Transformers to enhance Q-learning in partially observable environments,while Decision Transformers repurpose sequence modelling techniques to enable offline agents to learn from past trajectories without direct interaction with the environment. We conclude that while Transformers might have performed well in Atari games, more traditional methods perform better than Transformer based method in both the settings in the VizDoom environment.
- Abstract(参考訳): 本稿では,オンラインゲーム環境におけるオンライン環境とオフライン環境の両方における強化学習のためのTransformerベースのアーキテクチャについて検討する。
本研究では,オンライン学習におけるDeep Transformer Q- learning Networks(DTQN)とオフライン強化学習におけるDecision Transformer(DT)の2つの主要なアプローチに焦点を当てた。
DTQNはトランスフォーマーのシーケンシャルなモデリング機能を活用し、部分的に観測可能な環境でのQラーニングを強化する。
我々は、トランスフォーマーがアタリゲームでうまく機能していたかもしれないが、従来の手法の方が、VizDoom環境における両方の設定においてTransformerベースの方法よりも優れていると結論付けた。
関連論文リスト
- Adversarial Robustness of In-Context Learning in Transformers for Linear Regression [23.737606860443705]
本研究は,線形回帰タスクの設定に焦点をあてたテキストハイザック攻撃に対するトランスフォーマにおける文脈内学習の脆弱性について検討する。
まず,一層線形変圧器が非破壊的であり,任意の予測を出力できることを示す。
次に, 逆行訓練は, ファインタニング時にのみ適用しても, ハイジャック攻撃に対するトランスフォーマーの堅牢性を高めることを実証する。
論文 参考訳(メタデータ) (2024-11-07T21:25:58Z) - Introduction to Transformers: an NLP Perspective [59.0241868728732]
本稿では、トランスフォーマーの基本概念と、これらのモデルの最近の進歩を形作る重要な技術を紹介する。
これには、標準のTransformerアーキテクチャ、一連のモデル改良、一般的なアプリケーションの記述が含まれる。
論文 参考訳(メタデータ) (2023-11-29T13:51:04Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - A Survey on Transformers in Reinforcement Learning [66.23773284875843]
Transformer は NLP と CV において支配的なニューラルネットワークアーキテクチャと見なされている。
近年、強化学習(RL)分野においてトランスフォーマーの使用が急増しているが、RLの性質によってもたらされるユニークな設計選択と課題に直面している。
本稿では,RLにおけるトランスフォーマーの利用の動機と進歩を体系的にレビューし,既存の作業の分類を提供し,各サブフィールドについて議論し,今後の展望を要約する。
論文 参考訳(メタデータ) (2023-01-08T14:04:26Z) - Transformer in Transformer as Backbone for Deep Reinforcement Learning [43.354375917223656]
本稿では,深部RLのためのエンフレアトランスフォーマーネットワークの設計を提案する。
Transformer in Transformer (TIT) バックボーンが提案されている。
実験により、TITは異なる設定で一貫して満足なパフォーマンスを達成できることが示された。
論文 参考訳(メタデータ) (2022-12-30T03:50:38Z) - Transformers learn in-context by gradient descent [58.24152335931036]
自己回帰目標におけるトランスフォーマーの訓練は、勾配に基づくメタラーニングの定式化と密接に関連している。
トレーニングされたトランスフォーマーがメザ最適化器となる方法,すなわち,前方通過における勾配降下によるモデル学習方法を示す。
論文 参考訳(メタデータ) (2022-12-15T09:21:21Z) - Deep Reinforcement Learning with Swin Transformers [8.938418994111716]
本稿では,Swin Transformers: Swin DQNに基づくオンライン強化学習スキームについて紹介する。
既存の研究とは対照的に,アーケード学習環境における49のゲーム実験において,本手法は優れた性能を示す。
論文 参考訳(メタデータ) (2022-06-30T13:20:48Z) - Multi-Game Decision Transformers [49.257185338595434]
そこで本研究では,1つのトランスフォーマーモデルを用いて,最大46個のAtariゲーム群を,人間に近いパフォーマンスで同時にプレイ可能であることを示す。
オンラインやオフラインのRL手法や行動クローンなど,マルチゲーム設定におけるいくつかのアプローチを比較した。
マルチゲーム決定変換モデルは、最高のスケーラビリティとパフォーマンスを提供します。
論文 参考訳(メタデータ) (2022-05-30T16:55:38Z) - Learning Vision-Guided Quadrupedal Locomotion End-to-End with
Cross-Modal Transformers [14.509254362627576]
強化学習(RL)を用いた四足歩行課題への取り組みを提案する。
四足歩行のためのエンドツーエンドRL法であるLocoTransformerを導入する。
論文 参考訳(メタデータ) (2021-07-08T17:41:55Z) - Stabilizing Transformer-Based Action Sequence Generation For Q-Learning [5.707122938235432]
目標は、トランスフォーマーベースのDeep Q-Learningメソッドで、複数の環境で安定している。
提案手法は,制御環境における古典的Q-ラーニングの性能と,選択したAtariベンチマークのポテンシャルとを一致させることができる。
論文 参考訳(メタデータ) (2020-10-23T22:55:04Z) - AutoTrans: Automating Transformer Design via Reinforced Architecture
Search [52.48985245743108]
本稿では,手作業に適したトランスフォーマーアーキテクチャを実現するために,レイヤノルムの設定方法,スケール,レイヤ数,ヘッド数,アクティベーション関数などを実証的に検討する。
CoNLL03、Multi-30k、IWSLT14、WMT-14の実験は、探索されたトランスモデルが標準トランスモデルより優れていることを示している。
論文 参考訳(メタデータ) (2020-09-04T08:46:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。