論文の概要: Learning To Play Atari Games Using Dueling Q-Learning and Hebbian Plasticity
- arxiv url: http://arxiv.org/abs/2405.13960v1
- Date: Wed, 22 May 2024 19:55:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 20:23:46.654493
- Title: Learning To Play Atari Games Using Dueling Q-Learning and Hebbian Plasticity
- Title(参考訳): Q-Learning と Hebbian Plasticity によるアタリゲーム学習
- Authors: Md Ashfaq Salehin,
- Abstract要約: 本研究では,アタリゲームをするニューラルネットワークエージェントのトレーニングに,高度な強化学習アーキテクチャを用いる。
このシステムは最初、ディープQネットワークスやデュエルQネットワークスのような高度な技術を使って効率的なエージェントを訓練する。
プラスチックニューラルネットワークはエージェントとして使用され、その実現可能性はこのシナリオで分析される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, an advanced deep reinforcement learning architecture is used to train neural network agents playing atari games. Given only the raw game pixels, action space, and reward information, the system can train agents to play any Atari game. At first, this system uses advanced techniques like deep Q-networks and dueling Q-networks to train efficient agents, the same techniques used by DeepMind to train agents that beat human players in Atari games. As an extension, plastic neural networks are used as agents, and their feasibility is analyzed in this scenario. The plasticity implementation was based on backpropagation and the Hebbian update rule. Plastic neural networks have excellent features like lifelong learning after the initial training, which makes them highly suitable in adaptive learning environments. As a new analysis of plasticity in this context, this work might provide valuable insights and direction for future works.
- Abstract(参考訳): 本研究では,アタリゲームをするニューラルネットワークエージェントのトレーニングに,高度な強化学習アーキテクチャを用いる。
生のゲーム画素、アクションスペース、報奨情報のみを与えられたシステムは、エージェントに任意のアタリゲームをプレイするように訓練することができる。
このシステムは最初、ディープQ-networksやデュエルQ-networksのような高度な技術を使って、効率的なエージェントを訓練する。
拡張として、プラスチックニューラルネットワークをエージェントとして使用し、このシナリオでその実現可能性を分析する。
プラスティック性の実装は、バックプロパゲーションとHebbianの更新ルールに基づいていた。
プラスチックニューラルネットワークは、初期訓練後の生涯学習のような優れた特徴を持ち、適応学習環境に非常に適している。
この文脈における可塑性の新しい分析として、この研究は将来の研究に貴重な洞察と方向性を提供するかもしれない。
関連論文リスト
- Neuromorphic dreaming: A pathway to efficient learning in artificial agents [2.6542148964152923]
本稿では、混合信号アナログ/デジタルニューロモルフィックハードウェア上でのスパイキングニューラルネットワーク(SNN)を用いたモデルベース強化学習(MBRL)のハードウェア実装について述べる。
このアプローチは、高サンプリング効率を実現しつつ、混合信号ニューロモルフィックチップのエネルギー効率を活用する。
我々は、ハードウェア実装をトレーニングして、AtariゲームPongをプレイすることで、モデルを検証する。
論文 参考訳(メタデータ) (2024-05-24T15:03:56Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - NetHack is Hard to Hack [37.24009814390211]
NeurIPS 2021 NetHack Challengeでは、シンボリックエージェントは中央値のゲームスコアにおいて、ニューラルネットワークのアプローチを4倍以上に上回りました。
我々はNetHackのニューラルポリシー学習について広範な研究を行っている。
従来の完全なニューラルポリシーを127%のオフライン設定、25%のオンライン設定を中央値のゲームスコアで上回る最先端のニューラルエージェントを作成しました。
論文 参考訳(メタデータ) (2023-05-30T17:30:17Z) - Explaining Deep Reinforcement Learning Agents In The Atari Domain
through a Surrogate Model [78.69367679848632]
深部RLエージェントの説明を導出するための軽量で効果的な手法について述べる。
提案手法は,RLエージェントの画素ベース入力から解釈可能な知覚的入力表現への変換に依存する。
次に、ターゲットの深いRLエージェントの挙動を再現するために、それ自身解釈可能な代理モデルを訓練する。
論文 参考訳(メタデータ) (2021-10-07T05:01:44Z) - Teach me to play, gamer! Imitative learning in computer games via
linguistic description of complex phenomena and decision tree [55.41644538483948]
本稿では,複雑な現象の言語記述に基づく模倣による新しい機械学習モデルを提案する。
この手法は,ゲーム開発における知的エージェントの動作を設計し,実装するための優れた代替手段となる。
論文 参考訳(メタデータ) (2021-01-06T21:14:10Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z) - FRESH: Interactive Reward Shaping in High-Dimensional State Spaces using
Human Feedback [9.548547582558662]
強化学習は、複雑な環境で目標を達成するための自律エージェントの訓練に成功している。
人間のプレイヤーは、強化学習アルゴリズムよりも、いくつかの環境でより高い報酬を得るのが簡単であると考えることが多い。
これは、エージェントによって得られる報酬がスパースまたは非常に遅れた高次元状態空間に特に当てはまる。
論文 参考訳(メタデータ) (2020-01-19T06:07:20Z) - Model-Based Reinforcement Learning for Atari [89.3039240303797]
エージェントがモデルフリーの手法よりも少ないインタラクションでAtariゲームを解くことができることを示す。
本実験は,エージェントと環境間の100kの相互作用の少ないデータ構造における,AtariゲームにおけるSimPLeの評価である。
論文 参考訳(メタデータ) (2019-03-01T15:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。