論文の概要: Sample-Efficient Learning to Solve a Real-World Labyrinth Game Using
Data-Augmented Model-Based Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2312.09906v1
- Date: Fri, 15 Dec 2023 16:08:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 15:06:25.736959
- Title: Sample-Efficient Learning to Solve a Real-World Labyrinth Game Using
Data-Augmented Model-Based Reinforcement Learning
- Title(参考訳): データ強化モデルベース強化学習を用いた実世界のラビリンスゲームを解くためのサンプル効率学習
- Authors: Thomas Bi, Raffaello D'Andrea
- Abstract要約: 本稿では,ラビリンスゲームをナビゲートし,解決するために設計されたロボットシステムの開発と訓練について述べる。
この方法は、カメラ画像から低次元の観察を抽出することと、迷路内の現在の位置を中心に、収穫され、修正された画像パッチを抽出することを含む。
トレーニングデータを増強するために,システム固有の対称性を利用する。
われわれのアプローチは、実世界のトレーニングデータをわずか5時間で、人気の高いラビリンスゲームを記録的に解くことに成功している。
- 参考スコア(独自算出の注目度): 1.90365714903665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by the challenge of achieving rapid learning in physical
environments, this paper presents the development and training of a robotic
system designed to navigate and solve a labyrinth game using model-based
reinforcement learning techniques. The method involves extracting
low-dimensional observations from camera images, along with a cropped and
rectified image patch centered on the current position within the labyrinth,
providing valuable information about the labyrinth layout. The learning of a
control policy is performed purely on the physical system using model-based
reinforcement learning, where the progress along the labyrinth's path serves as
a reward signal. Additionally, we exploit the system's inherent symmetries to
augment the training data. Consequently, our approach learns to successfully
solve a popular real-world labyrinth game in record time, with only 5 hours of
real-world training data.
- Abstract(参考訳): 本稿では,物理環境における高速学習の課題に動機づけられ,モデルに基づく強化学習手法を用いて迷路ゲームをナビゲートし,解決するロボットシステムの開発と学習について述べる。
この方法は、カメラ画像から低次元の観察を抽出し、迷路内の現在の位置を中心に整流した画像パッチを付加し、迷路レイアウトに関する貴重な情報を提供する。
制御ポリシの学習はモデルに基づく強化学習を用いて物理的システム上で純粋に行われ、そこでは迷路の進行が報奨信号として機能する。
さらに,システムの固有対称性を利用してトレーニングデータの強化を行う。
その結果,本手法は,実世界のトレーニングデータをわずか5時間で,実世界のラビリンスゲームを記録的に解くことに成功している。
関連論文リスト
- Any-point Trajectory Modeling for Policy Learning [67.45990463611942]
我々は、ビデオフレーム内の任意の点の将来の軌跡を予測するために、ATM(Any-point Trajectory Modeling)を導入する。
ATMは、強力なビデオ事前トレーニングベースラインを平均80%上回っている。
本研究では,人間の動画やビデオからの操作スキルを,異なるロボット形態から効果的に伝達する学習方法を示す。
論文 参考訳(メタデータ) (2023-12-28T23:34:43Z) - Deep Apprenticeship Learning for Playing Games [0.0]
複雑な多次元タスクのエキスパート行動に基づく学習モデルの設計の可能性について検討する。
本稿では,強化学習における教師あり学習技術に関する従来の研究をもとに,新しい見習い学習手法を提案する。
本手法は,アタリゲームからの映像フレームに適用し,人工エージェントによるゲームプレイの指導を行う。
論文 参考訳(メタデータ) (2022-05-16T19:52:45Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Why-So-Deep: Towards Boosting Previously Trained Models for Visual Place
Recognition [12.807343105549409]
画像のリコールを改善するために,事前学習モデルのパワーを増幅する知的手法MAQBOOLを提案する。
我々は,最先端手法の高記述次元 (4096-D) と比較して,低記述次元 (512-D) で画像検索結果に匹敵する結果を得た。
論文 参考訳(メタデータ) (2022-01-10T08:39:06Z) - Curious Representation Learning for Embodied Intelligence [81.21764276106924]
近年,自己指導型表現学習は顕著な成功を収めている。
しかし、真にインテリジェントなエージェントを構築するためには、環境から学習できる表現学習アルゴリズムを構築する必要がある。
本稿では,強化学習方針と視覚的表現モデルを同時に学習する,好奇心をそそる表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-03T17:59:20Z) - Learning a State Representation and Navigation in Cluttered and Dynamic
Environments [6.909283975004628]
本稿では,四足ロボットによる局所ナビゲーションを実現するための学習ベースのパイプラインを提案する。
ロボットは、環境を明示的にマッピングすることなく、奥行きカメラのフレームに基づいて、安全な場所へ移動することができる。
本システムでは,ノイズの多い奥行き画像の処理が可能であり,訓練中の動的障害物を回避でき,局所的な空間意識を付与できることを示す。
論文 参考訳(メタデータ) (2021-03-07T13:19:06Z) - MELD: Meta-Reinforcement Learning from Images via Latent State Models [109.1664295663325]
我々は,遅延状態モデルで推論を行う画像からメタRLのアルゴリズムを開発し,新しいスキルを素早く獲得する。
MELDは、画像から現実のロボット制御設定でトレーニングされた最初のメタRLアルゴリズムである。
論文 参考訳(メタデータ) (2020-10-26T23:50:30Z) - A Plug-and-play Scheme to Adapt Image Saliency Deep Model for Video Data [54.198279280967185]
本稿では,ビデオデータに対して予め訓練された画像の鮮度深度モデルを弱めに再学習する新しいプラグイン・アンド・プレイ方式を提案する。
本手法は,既訓練画像の深度モデルに適応して高品質な映像の鮮度検出を実現するのに有効である。
論文 参考訳(メタデータ) (2020-08-02T13:23:14Z) - Auto-Rectify Network for Unsupervised Indoor Depth Estimation [119.82412041164372]
ハンドヘルド環境に現れる複雑な自我運動が,学習深度にとって重要な障害であることが確認された。
本稿では,相対回転を除去してトレーニング画像の修正を効果的に行うデータ前処理手法を提案する。
その結果、従来の教師なしSOTA法よりも、難易度の高いNYUv2データセットよりも優れていた。
論文 参考訳(メタデータ) (2020-06-04T08:59:17Z) - Stillleben: Realistic Scene Synthesis for Deep Learning in Robotics [33.30312206728974]
本稿では,シーン認識タスクの学習データを生成するための合成パイプラインについて述べる。
本手法は,物理シミュレーションを用いて,物体メッシュを物理的に現実的で密集したシーンに配置する。
私たちのパイプラインは、ディープニューラルネットワークのトレーニング中にオンラインで実行できます。
論文 参考訳(メタデータ) (2020-05-12T10:11:00Z) - Acceleration of Actor-Critic Deep Reinforcement Learning for Visual
Grasping in Clutter by State Representation Learning Based on Disentanglement
of a Raw Input Image [4.970364068620608]
アクター・クリティック・ディープ・強化学習(RL)法は、多種多様な物体をつかむ際には、通常非常に低性能である。
状態表現学習 (SRL) を用いて, RL において重要な情報をまずエンコードする。
その結果,原画像の歪みに基づく前処理が,コンパクトな表現を効果的に捉える鍵であることが判明した。
論文 参考訳(メタデータ) (2020-02-27T03:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。