論文の概要: FDQN: A Flexible Deep Q-Network Framework for Game Automation
- arxiv url: http://arxiv.org/abs/2405.18761v1
- Date: Wed, 29 May 2024 05:00:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 18:48:25.173815
- Title: FDQN: A Flexible Deep Q-Network Framework for Game Automation
- Title(参考訳): FDQN: ゲーム自動化のための柔軟なQ-ネットワークフレームワーク
- Authors: Prabhath Reddy Gujavarthy,
- Abstract要約: 本研究では,CNNを用いて高次元センサデータをリアルタイムに処理する,最先端のフレキシブルQ-Network (FDQN) フレームワークを提案する。
モジュール構造で設計されており、フレームワークのコア部分に触れることなく、他のHTMLベースのゲームに簡単に適応できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In reinforcement learning, it is often difficult to automate high-dimensional, rapid decision-making in dynamic environments, especially when domains require real-time online interaction and adaptive strategies such as web-based games. This work proposes a state-of-the-art Flexible Deep Q-Network (FDQN) framework that can address this challenge with a selfadaptive approach that is processing high-dimensional sensory data in realtime using a CNN and dynamically adapting the model architecture to varying action spaces of different gaming environments and outperforming previous baseline models in various Atari games and the Chrome Dino game as baselines. Using the epsilon-greedy policy, it effectively balances the new learning and exploitation for improved performance, and it has been designed with a modular structure that it can be easily adapted to other HTML-based games without touching the core part of the framework. It is demonstrated that the FDQN framework can successfully solve a well-defined task in a laboratory condition, but more importantly it also discusses potential applications to more challenging real-world cases and serve as the starting point for future further exploration into automated game play and beyond.
- Abstract(参考訳): 強化学習では、特にドメインがリアルタイムのオンラインインタラクションやWebゲームのような適応戦略を必要とする場合、動的環境における高次元的、迅速な意思決定を自動化することがしばしば困難である。
本研究は,CNNを用いて高次元センサデータをリアルタイムに処理し,異なるゲーム環境のさまざまなアクション空間にモデルアーキテクチャを動的に適用し,さまざまなAtariゲームやChrome Dinoゲームにおいて,以前のベースラインモデルをベースラインとして向上させるという,この課題に対処可能な,最先端のフレキシブルQネットワーク(FDQN)フレームワークを提案する。
epsilon-greedyポリシを使うことで、パフォーマンス向上のために新しい学習と利用のバランスを効果的に保ち、フレームワークのコア部分に触れることなく、他のHTMLベースのゲームに容易に適応できるモジュール構造で設計されている。
FDQNフレームワークは、実験室条件下でよく定義されたタスクをうまく解決できることが実証されているが、より重要なことは、より困難な現実世界のケースへの潜在的な応用を議論し、自動化されたゲームプレイ以降のさらなる探索の出発点として機能することである。
関連論文リスト
- Scalable Offline Reinforcement Learning for Mean Field Games [6.8267158622784745]
Off-MMDは、純粋なオフラインデータを用いて平均フィールドゲームにおける平衡ポリシーを近似する新しい平均フィールドRLアルゴリズムである。
我々のアルゴリズムは複雑な環境にスケールし、群衆探索やナビゲーションといったベンチマークタスクで強いパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-10-23T14:16:34Z) - Real-Time Hand Gesture Recognition: Integrating Skeleton-Based Data Fusion and Multi-Stream CNN [0.0]
ハンドジェスチャ認識(HGR)は、様々な現実世界のコンテキストにおいて、直感的な人間とコンピュータのインタラクションを可能にする。
既存のフレームワークは、実用的なHGRアプリケーションに必要なリアルタイム要件を満たすのに苦労することが多い。
本研究では,動的ハンドジェスチャの静的イメージタスクへの認識を簡略化する,動的HGRのための頑健な骨格ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-21T09:30:59Z) - HAZARD Challenge: Embodied Decision Making in Dynamically Changing
Environments [93.94020724735199]
HAZARDは、火災、洪水、風などの3つの予期せぬ災害シナリオで構成されている。
このベンチマークにより、さまざまなパイプラインで自律エージェントの意思決定能力を評価することができる。
論文 参考訳(メタデータ) (2024-01-23T18:59:43Z) - On a Connection between Differential Games, Optimal Control, and
Energy-based Models for Multi-Agent Interactions [0.13499500088995461]
差分ゲーム,最適制御,エネルギーベースモデルの関連性を示す。
この定式化に基づいて、この研究はエンド・ツー・エンドの学習アプリケーションを導入している。
シミュレーションされた移動ロボット歩行者インタラクションと実世界の自動運転データを用いた実験は、実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-08-31T08:30:11Z) - Deep Reinforcement Learning Based on Local GNN for Goal-conditioned
Deformable Object Rearranging [1.807492010338763]
オブジェクトの再配置は、ロボットが変形可能なオブジェクトを目標設定に再構成する必要がある、最も一般的な変形可能な操作タスクの1つである。
従来の研究は、モデルベースまたはデータ駆動アプローチによる各タスクのエキスパートシステムの設計に重点を置いていた。
画像から検出されたキーポイントを2つの表現グラフを用いて符号化する局所GNN(Graph Neural Network)に基づく学習法を設計する。
我々のフレームワークはシミュレーションにおける複数の1-D(ロープリング、ロープリング)と2-D(クロース)の再構成作業に有効であり、キーポイント検出器を微調整することで、実際のロボットに容易に移行できる。
論文 参考訳(メタデータ) (2023-02-21T05:21:26Z) - PointFix: Learning to Fix Domain Bias for Robust Online Stereo
Adaptation [67.41325356479229]
本稿では,PointFixと呼ばれるメタラーニングフレームワークに補助的なポイント選択型ネットワークを導入することを提案する。
簡単に言えば、我々の補助的ネットワークは、メタグラディエントを通じて局所情報を効果的にバックプロパゲートすることで、局所的変異を集中的に修正することを学ぶ。
このネットワークはモデルに依存しないため、プラグイン・アンド・プレイ方式であらゆる種類のアーキテクチャで使用することができる。
論文 参考訳(メタデータ) (2022-07-27T07:48:29Z) - Slimmable Domain Adaptation [112.19652651687402]
重み付けモデルバンクを用いて、ドメイン間の一般化を改善するためのシンプルなフレームワーク、Slimmable Domain Adaptationを導入する。
私たちのフレームワークは、他の競合するアプローチを、複数のベンチマークにおいて非常に大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-06-14T06:28:04Z) - An Efficient Image-to-Image Translation HourGlass-based Architecture for
Object Pushing Policy Learning [20.77172985076276]
人間は日常のタスクを強制的に解決するが、これらの能力を解き放つことはロボティクスの課題だ。
本稿では,環境変化に寄与する予測器と,プッシュタスク専用の状態-作用値予測器を組み合わせたアーキテクチャを提案する。
我々は, UR5ロボットアームを用いたシミュレーション実験において, DQNがより速く学習し, 高い性能を達成するためのアーキテクチャを実証した。
論文 参考訳(メタデータ) (2021-08-02T16:46:08Z) - PlasticineLab: A Soft-Body Manipulation Benchmark with Differentiable
Physics [89.81550748680245]
PasticineLabと呼ばれる新しい微分可能な物理ベンチマークを導入する。
各タスクにおいて、エージェントはマニピュレータを使用して、プラスチックを所望の構成に変形させる。
本稿では,既存の強化学習(RL)手法と勾配に基づく手法について評価する。
論文 参考訳(メタデータ) (2021-04-07T17:59:23Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - Learning to Simulate Dynamic Environments with GameGAN [109.25308647431952]
本稿では,エージェントが環境と対話するのを見ることでシミュレーターを学習することを目的とする。
ゲームGANは,学習中にスクリーンプレイやキーボード操作を取り入れることで,所望のゲームを視覚的に模倣することを学習する生成モデルである。
論文 参考訳(メタデータ) (2020-05-25T14:10:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。