論文の概要: Learning Actions and Control of Focus of Attention with a Log-Polar-like
Sensor
- arxiv url: http://arxiv.org/abs/2309.12634v1
- Date: Fri, 22 Sep 2023 06:02:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 15:52:46.364236
- Title: Learning Actions and Control of Focus of Attention with a Log-Polar-like
Sensor
- Title(参考訳): ログポーラ型センサによる注意集中の学習行動と制御
- Authors: Robin G\"oransson and Volker Krueger
- Abstract要約: 視線制御を用いた対数極性画像データの利用について検討する。
我々は,アタリを3回プレイする方針と視線制御の方針を学習する。
ゲーム性能を損なうことなく、画像ピクセルを5倍に減らすことができるのです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the long-term goal of reducing the image processing time on an
autonomous mobile robot in mind we explore in this paper the use of log-polar
like image data with gaze control. The gaze control is not done on the
Cartesian image but on the log-polar like image data. For this we start out
from the classic deep reinforcement learning approach for Atari games. We
extend an A3C deep RL approach with an LSTM network, and we learn the policy
for playing three Atari games and a policy for gaze control. While the Atari
games already use low-resolution images of 80 by 80 pixels, we are able to
further reduce the amount of image pixels by a factor of 5 without losing any
gaming performance.
- Abstract(参考訳): 本稿では,自律移動ロボットにおける画像処理時間の長期化を念頭に,視線制御による対数極性的な画像データの利用について検討する。
視線制御は、カルト画像上ではなく、対数極性的な画像データ上で行われる。
そのため、Atariゲームにおける古典的な深層強化学習アプローチから出発する。
我々は,lstmネットワークを用いてa3c deep rlアプローチを拡張し,atariゲーム3ゲームプレイのポリシーと視線制御のポリシーを学習する。
Atariゲームはすでに80×80ピクセルの解像度の低解像度画像を使用しているが、ゲーム性能を損なうことなく5倍の解像度の画像を撮影することができる。
関連論文リスト
- Virtual Augmented Reality for Atari Reinforcement Learning [0.0]
現状のイメージセグメンテーションモデルは、アタリビデオゲームをプレイするRLエージェントの性能を向上させることができるか?
その結果、SAMはRLエージェントの「仮想拡張現実」として機能し、特定の条件下でのAtariビデオゲームのパフォーマンスを高めることが示唆された。
論文 参考訳(メタデータ) (2023-10-12T19:42:42Z) - Differentially Encoded Observation Spaces for Perceptive Reinforcement
Learning [6.71537721907786]
DRL対応システムのトレーニングは、信じられないほど計算量とメモリ集約性を維持している。
我々は、差分符号化された観測空間を利用して、トレーニング性能に影響を与えることなく、リプレイバッファを圧縮する。
Atari 2600ベンチマークとDeepMind Control Suite (DMC) から, メモリフットプリントを最大14.2倍, 16.7倍削減した。
論文 参考訳(メタデータ) (2023-10-03T03:23:10Z) - Masked Visual Pre-training for Motor Control [118.18189211080225]
実世界の画像からの自己教師付き視覚前訓練は、画素から運動制御タスクを学習するのに有効である。
私たちはビジュアルエンコーダを凍結し、強化学習でニューラルネットワークコントローラをトレーニングします。
これは、モーター制御のために現実の画像を大規模に活用した初めての自己教師型モデルである。
論文 参考訳(メタデータ) (2022-03-11T18:58:10Z) - Explaining Deep Reinforcement Learning Agents In The Atari Domain
through a Surrogate Model [78.69367679848632]
深部RLエージェントの説明を導出するための軽量で効果的な手法について述べる。
提案手法は,RLエージェントの画素ベース入力から解釈可能な知覚的入力表現への変換に依存する。
次に、ターゲットの深いRLエージェントの挙動を再現するために、それ自身解釈可能な代理モデルを訓練する。
論文 参考訳(メタデータ) (2021-10-07T05:01:44Z) - High Performance Across Two Atari Paddle Games Using the Same Perceptual
Control Architecture Without Training [0.0]
単純な仮定に基づく知覚制御モデルは、学習せずにうまく機能することを示す。
我々は、心理学的機能とより類似した学習の同義的な役割を特定することで結論付ける。
論文 参考訳(メタデータ) (2021-08-04T08:00:30Z) - Unsupervised Visual Representation Learning by Tracking Patches in Video [88.56860674483752]
本研究では,コンピュータビジョンシステムのプロキシタスクとしてトラッキングを用いて視覚表現を学習することを提案する。
子どもたちがプレイするキャッチゲームをベースに、視覚表現を学ぶ3D-CNNモデルのためのキャッチ・ザ・パッチ(CtP)ゲームを設計します。
論文 参考訳(メタデータ) (2021-05-06T09:46:42Z) - Shielding Atari Games with Bounded Prescience [8.874011540975715]
アタリゲームにおけるDRLエージェントの安全性を分析し、確保するための最初の正確な方法を提示します。
まず、30ゲームのための「安全な行動」を特徴づける43のプロパティのセットを与えます。
第2に,エージェントとゲームによって引き起こされるすべてのトレースを探索する手法を開発した。
第3に,境界状態探索と遮蔽を組み合わせた対策を提案する。
論文 参考訳(メタデータ) (2021-01-20T14:22:04Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z) - Deep Reinforcement Learning with Mixed Convolutional Network [8.05881526425515]
本稿では,OpenAI Gymにおける模倣学習を用いて,CarRacing-v0を再生する畳み込みニューラルネットワーク(CNN)を提案する。
データセットは、Gymで手動でゲームをプレイすることで生成され、データ拡張方法を使用してデータセットを以前より4倍大きく拡張する。
トレーニング後、このモデルは道路の特徴の境界を自動的に検出し、ロボットを人間のように駆動する。
論文 参考訳(メタデータ) (2020-10-01T23:02:59Z) - Disentangling Controllable Object through Video Prediction Improves
Visual Reinforcement Learning [82.25034245150582]
多くの視覚に基づく強化学習問題において、エージェントは視野内の可動物体を制御する。
制御可能なオブジェクトを観測信号から切り離すためのエンドツーエンド学習フレームワークを提案する。
不整合表現は、RLがエージェントに追加の観察チャネルとして有用であることが示されている。
論文 参考訳(メタデータ) (2020-02-21T05:43:34Z) - Model-Based Reinforcement Learning for Atari [89.3039240303797]
エージェントがモデルフリーの手法よりも少ないインタラクションでAtariゲームを解くことができることを示す。
本実験は,エージェントと環境間の100kの相互作用の少ないデータ構造における,AtariゲームにおけるSimPLeの評価である。
論文 参考訳(メタデータ) (2019-03-01T15:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。