論文の概要: Sample-Efficient Learning to Solve a Real-World Labyrinth Game Using
Data-Augmented Model-Based Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2312.09906v1
- Date: Fri, 15 Dec 2023 16:08:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 15:06:25.736959
- Title: Sample-Efficient Learning to Solve a Real-World Labyrinth Game Using
Data-Augmented Model-Based Reinforcement Learning
- Title(参考訳): データ強化モデルベース強化学習を用いた実世界のラビリンスゲームを解くためのサンプル効率学習
- Authors: Thomas Bi, Raffaello D'Andrea
- Abstract要約: 本稿では,ラビリンスゲームをナビゲートし,解決するために設計されたロボットシステムの開発と訓練について述べる。
この方法は、カメラ画像から低次元の観察を抽出することと、迷路内の現在の位置を中心に、収穫され、修正された画像パッチを抽出することを含む。
トレーニングデータを増強するために,システム固有の対称性を利用する。
われわれのアプローチは、実世界のトレーニングデータをわずか5時間で、人気の高いラビリンスゲームを記録的に解くことに成功している。
- 参考スコア(独自算出の注目度): 1.90365714903665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by the challenge of achieving rapid learning in physical
environments, this paper presents the development and training of a robotic
system designed to navigate and solve a labyrinth game using model-based
reinforcement learning techniques. The method involves extracting
low-dimensional observations from camera images, along with a cropped and
rectified image patch centered on the current position within the labyrinth,
providing valuable information about the labyrinth layout. The learning of a
control policy is performed purely on the physical system using model-based
reinforcement learning, where the progress along the labyrinth's path serves as
a reward signal. Additionally, we exploit the system's inherent symmetries to
augment the training data. Consequently, our approach learns to successfully
solve a popular real-world labyrinth game in record time, with only 5 hours of
real-world training data.
- Abstract(参考訳): 本稿では,物理環境における高速学習の課題に動機づけられ,モデルに基づく強化学習手法を用いて迷路ゲームをナビゲートし,解決するロボットシステムの開発と学習について述べる。
この方法は、カメラ画像から低次元の観察を抽出し、迷路内の現在の位置を中心に整流した画像パッチを付加し、迷路レイアウトに関する貴重な情報を提供する。
制御ポリシの学習はモデルに基づく強化学習を用いて物理的システム上で純粋に行われ、そこでは迷路の進行が報奨信号として機能する。
さらに,システムの固有対称性を利用してトレーニングデータの強化を行う。
その結果,本手法は,実世界のトレーニングデータをわずか5時間で,実世界のラビリンスゲームを記録的に解くことに成功している。
関連論文リスト
- StixelNExT: Toward Monocular Low-Weight Perception for Object Segmentation and Free Space Detection [8.684797433797744]
本研究では、Stixel-Worldの概念を活用して、その周囲の中程度の表現を認識する。
我々のネットワークは2次元の多層Stixel-Worldを直接予測し、画像内の複数の重畳されたオブジェクトを認識することができる。
論文 参考訳(メタデータ) (2024-07-11T08:25:51Z) - EfficientTrain++: Generalized Curriculum Learning for Efficient Visual Backbone Training [79.96741042766524]
訓練カリキュラムをソフトセレクション機能として再構築する。
自然画像の内容の露光は,データ拡張の強度によって容易に達成できることを示す。
結果のメソッドであるEfficientTrain++は単純で汎用的だが驚くほど効果的である。
論文 参考訳(メタデータ) (2024-05-14T17:00:43Z) - Any-point Trajectory Modeling for Policy Learning [64.23861308947852]
我々は、ビデオフレーム内の任意の点の将来の軌跡を予測するために、ATM(Any-point Trajectory Modeling)を導入する。
ATMは、強力なビデオ事前トレーニングベースラインを平均80%上回っている。
本研究では,人間の動画やビデオからの操作スキルを,異なるロボット形態から効果的に伝達する学習方法を示す。
論文 参考訳(メタデータ) (2023-12-28T23:34:43Z) - VILLS -- Video-Image Learning to Learn Semantics for Person Re-Identification [51.89551385538251]
VILLS (Video-Image Learning to Learn Semantics) は画像やビデオから空間的特徴と時間的特徴を共同で学習する自己教師型手法である。
VILLSはまず、意味的一貫性と頑健な空間的特徴を適応的に抽出する局所意味抽出モジュールを設計する。
そして、VILLSは、一貫した特徴空間における画像とビデオのモダリティを表現するために、統合された特徴学習および適応モジュールを設計する。
論文 参考訳(メタデータ) (2023-11-27T19:30:30Z) - Deep Apprenticeship Learning for Playing Games [0.0]
複雑な多次元タスクのエキスパート行動に基づく学習モデルの設計の可能性について検討する。
本稿では,強化学習における教師あり学習技術に関する従来の研究をもとに,新しい見習い学習手法を提案する。
本手法は,アタリゲームからの映像フレームに適用し,人工エージェントによるゲームプレイの指導を行う。
論文 参考訳(メタデータ) (2022-05-16T19:52:45Z) - Learning a State Representation and Navigation in Cluttered and Dynamic
Environments [6.909283975004628]
本稿では,四足ロボットによる局所ナビゲーションを実現するための学習ベースのパイプラインを提案する。
ロボットは、環境を明示的にマッピングすることなく、奥行きカメラのフレームに基づいて、安全な場所へ移動することができる。
本システムでは,ノイズの多い奥行き画像の処理が可能であり,訓練中の動的障害物を回避でき,局所的な空間意識を付与できることを示す。
論文 参考訳(メタデータ) (2021-03-07T13:19:06Z) - MELD: Meta-Reinforcement Learning from Images via Latent State Models [109.1664295663325]
我々は,遅延状態モデルで推論を行う画像からメタRLのアルゴリズムを開発し,新しいスキルを素早く獲得する。
MELDは、画像から現実のロボット制御設定でトレーニングされた最初のメタRLアルゴリズムである。
論文 参考訳(メタデータ) (2020-10-26T23:50:30Z) - A Plug-and-play Scheme to Adapt Image Saliency Deep Model for Video Data [54.198279280967185]
本稿では,ビデオデータに対して予め訓練された画像の鮮度深度モデルを弱めに再学習する新しいプラグイン・アンド・プレイ方式を提案する。
本手法は,既訓練画像の深度モデルに適応して高品質な映像の鮮度検出を実現するのに有効である。
論文 参考訳(メタデータ) (2020-08-02T13:23:14Z) - Auto-Rectify Network for Unsupervised Indoor Depth Estimation [119.82412041164372]
ハンドヘルド環境に現れる複雑な自我運動が,学習深度にとって重要な障害であることが確認された。
本稿では,相対回転を除去してトレーニング画像の修正を効果的に行うデータ前処理手法を提案する。
その結果、従来の教師なしSOTA法よりも、難易度の高いNYUv2データセットよりも優れていた。
論文 参考訳(メタデータ) (2020-06-04T08:59:17Z) - Stillleben: Realistic Scene Synthesis for Deep Learning in Robotics [33.30312206728974]
本稿では,シーン認識タスクの学習データを生成するための合成パイプラインについて述べる。
本手法は,物理シミュレーションを用いて,物体メッシュを物理的に現実的で密集したシーンに配置する。
私たちのパイプラインは、ディープニューラルネットワークのトレーニング中にオンラインで実行できます。
論文 参考訳(メタデータ) (2020-05-12T10:11:00Z) - Acceleration of Actor-Critic Deep Reinforcement Learning for Visual
Grasping in Clutter by State Representation Learning Based on Disentanglement
of a Raw Input Image [4.970364068620608]
アクター・クリティック・ディープ・強化学習(RL)法は、多種多様な物体をつかむ際には、通常非常に低性能である。
状態表現学習 (SRL) を用いて, RL において重要な情報をまずエンコードする。
その結果,原画像の歪みに基づく前処理が,コンパクトな表現を効果的に捉える鍵であることが判明した。
論文 参考訳(メタデータ) (2020-02-27T03:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。