論文の概要: Deep Reinforcement Learning Using a Low-Dimensional Observation Filter
for Visual Complex Video Game Playing
- arxiv url: http://arxiv.org/abs/2204.11370v1
- Date: Sun, 24 Apr 2022 22:17:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 23:12:52.475804
- Title: Deep Reinforcement Learning Using a Low-Dimensional Observation Filter
for Visual Complex Video Game Playing
- Title(参考訳): 視覚複合ゲームのための低次元観測フィルタを用いた深層強化学習
- Authors: Victor Augusto Kich, Junior Costa de Jesus, Ricardo Bedin Grando,
Alisson Henrique Kolling, Gabriel Vin\'icius Heisler, Rodrigo da Silva Guerra
- Abstract要約: 高次元の観測空間、フレーム単位のフレームから大量のデータを処理する必要があるため、エージェントのアクションはディープニューラルネットワークポリシーに従って計算される。
本稿では,深層Qネットワークエージェントが,Neon Driveと呼ばれる,視覚的に複雑で現代的なビデオゲームでうまく遊べる低次元観察フィルタを提案する。
- 参考スコア(独自算出の注目度): 1.2468700211588883
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Reinforcement Learning (DRL) has produced great achievements since it
was proposed, including the possibility of processing raw vision input data.
However, training an agent to perform tasks based on image feedback remains a
challenge. It requires the processing of large amounts of data from
high-dimensional observation spaces, frame by frame, and the agent's actions
are computed according to deep neural network policies, end-to-end. Image
pre-processing is an effective way of reducing these high dimensional spaces,
eliminating unnecessary information present in the scene, supporting the
extraction of features and their representations in the agent's neural network.
Modern video-games are examples of this type of challenge for DRL algorithms
because of their visual complexity. In this paper, we propose a low-dimensional
observation filter that allows a deep Q-network agent to successfully play in a
visually complex and modern video-game, called Neon Drive.
- Abstract(参考訳): 深層強化学習(DRL)は、生の視覚入力データを処理できるなど、提案以来大きな成果を上げてきた。
しかし、イメージフィードバックに基づいてタスクを実行するエージェントのトレーニングは依然として課題である。
高次元の観測空間、フレーム単位のフレームから大量のデータを処理する必要がある。エージェントのアクションは、エンドツーエンドのディープニューラルネットワークポリシーに従って計算される。
画像前処理は、これらの高次元空間を減らし、シーンに存在する不要な情報を排除し、エージェントのニューラルネットワークにおける特徴と表現の抽出をサポートする効果的な方法である。
現代のビデオゲームは、その視覚的複雑さのため、DRLアルゴリズムのこの種の課題の例である。
本稿では,深層Qネットワークエージェントが,Neon Driveと呼ばれる,視覚的に複雑で現代的なビデオゲームでうまく遊べる低次元観察フィルタを提案する。
関連論文リスト
- An Examination of Offline-Trained Encoders in Vision-Based Deep Reinforcement Learning for Autonomous Driving [0.0]
部分観測可能なマルコフ決定過程(POMDP)における深層強化学習(DRL)の課題に関する研究
我々の研究は、オフラインで訓練されたエンコーダを用いて、自己教師付き学習を通じて大規模なビデオデータセットを活用し、一般化可能な表現を学習する。
CARLAシミュレータにおいて,BDD100Kの運転映像から得られた特徴を直接転送することで,車線追従や衝突回避を実現することができることを示す。
論文 参考訳(メタデータ) (2024-09-02T14:16:23Z) - Neural Radiance Field Codebooks [53.01356339021285]
我々は、オブジェクト指向表現を学習するためのスケーラブルな方法であるNeural Radiance Field Codebooks (NRC)を紹介する。
NRCは、ボリューム再構成によってデコードされたオブジェクトコードの辞書を使用して、新しいビューからシーンを再構築することを学ぶ。
NRC表現は、THORのオブジェクトナビゲーションによく対応し、2Dおよび3D表現学習法を3.1%の成功率で上回ることを示す。
論文 参考訳(メタデータ) (2023-01-10T18:03:48Z) - An Empirical Study of Remote Sensing Pretraining [117.90699699469639]
本研究では,空中画像におけるリモートセンシング事前訓練(RSP)の実証的研究を行った。
RSPは、シーン認識タスクで特有のパフォーマンスを提供するのに役立つ。
RSPは、従来のイメージネットがRS画像に事前学習する際のデータ格差を緩和するが、それでもタスクの相違に悩まされる可能性がある。
論文 参考訳(メタデータ) (2022-04-06T13:38:11Z) - A Deeper Look into DeepCap [96.67706102518238]
そこで本研究では,単分子密集型人間のパフォーマンスキャプチャのための新しい深層学習手法を提案する。
本手法は,多視点監視に基づく弱教師付き方式で訓練されている。
我々のアプローチは、品質と堅牢性の観点から、芸術の状態を上回ります。
論文 参考訳(メタデータ) (2021-11-20T11:34:33Z) - Deep Direct Volume Rendering: Learning Visual Feature Mappings From
Exemplary Images [57.253447453301796]
本稿では,ディープ・ダイレクト・ボリューム・レンダリング(Deep Direct Volume Rendering,DVR)を導入し,ディープ・ニューラル・ネットワークをDVRアルゴリズムに統合する。
潜在色空間におけるレンダリングを概念化し、深層アーキテクチャを用いて特徴抽出と分類のための暗黙マッピングを学習できるようにする。
我々の一般化は、画像空間の例から直接エンドツーエンドにトレーニングできる新しいボリュームレンダリングアーキテクチャを導き出すのに役立つ。
論文 参考訳(メタデータ) (2021-06-09T23:03:00Z) - Improving Computational Efficiency in Visual Reinforcement Learning via
Stored Embeddings [89.63764845984076]
効率的な強化学習のためのストアド埋め込み(SEER)について紹介します。
SEERは、既存の非政治深層強化学習方法の簡単な修正です。
計算とメモリを大幅に節約しながら、SEERがRLizableエージェントのパフォーマンスを低下させないことを示します。
論文 参考訳(メタデータ) (2021-03-04T08:14:10Z) - Are Gradient-based Saliency Maps Useful in Deep Reinforcement Learning? [4.254099382808598]
Deep Reinforcement Learning (DRL)は、古典的なReinforcement LearningアルゴリズムとDeep Neural Networksを接続する。
DRLの問題は、CNNがブラックボックスであり、エージェントの意思決定プロセスを理解することは困難である。
この研究は、画像分類の分野からDeep Reinforcement Learningの分野まで、よく知られた視覚化手法をいくつかもたらす。
論文 参考訳(メタデータ) (2020-12-02T15:38:36Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - Top-Down Networks: A coarse-to-fine reimagination of CNNs [25.079310083166824]
生物学的ビジョンは、粗い情報処理経路を採用する。
トップダウンネットワークは、高周波ノイズを発生させる敵攻撃に対する防御線を提供する。
本稿では,複数の視覚的タスクにおける様々な既存アーキテクチャへのトップダウン分解処理の適用性を示す実証的な証拠を提供する。
論文 参考訳(メタデータ) (2020-04-16T12:29:48Z) - Acceleration of Actor-Critic Deep Reinforcement Learning for Visual
Grasping in Clutter by State Representation Learning Based on Disentanglement
of a Raw Input Image [4.970364068620608]
アクター・クリティック・ディープ・強化学習(RL)法は、多種多様な物体をつかむ際には、通常非常に低性能である。
状態表現学習 (SRL) を用いて, RL において重要な情報をまずエンコードする。
その結果,原画像の歪みに基づく前処理が,コンパクトな表現を効果的に捉える鍵であることが判明した。
論文 参考訳(メタデータ) (2020-02-27T03:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。