論文の概要: Zero-Shot Reinforcement Learning on Graphs for Autonomous Exploration
Under Uncertainty
- arxiv url: http://arxiv.org/abs/2105.04758v1
- Date: Tue, 11 May 2021 02:42:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 14:02:31.800535
- Title: Zero-Shot Reinforcement Learning on Graphs for Autonomous Exploration
Under Uncertainty
- Title(参考訳): 不確実性下の自律探索のためのグラフのゼロショット強化学習
- Authors: Fanfei Chen, Paul Szenher, Yewei Huang, Jinkun Wang, Tixiao Shan, Shi
Bai, Brendan Englot
- Abstract要約: シミュレーション環境で高性能探査政策を自己学習するための枠組みを提案する。
本稿では,グラフニューラルネットワークと深層強化学習を併用した新しい手法を提案する。
- 参考スコア(独自算出の注目度): 6.42522897323111
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the problem of autonomous exploration under localization
uncertainty for a mobile robot with 3D range sensing. We present a framework
for self-learning a high-performance exploration policy in a single simulation
environment, and transferring it to other environments, which may be physical
or virtual. Recent work in transfer learning achieves encouraging performance
by domain adaptation and domain randomization to expose an agent to scenarios
that fill the inherent gaps in sim2sim and sim2real approaches. However, it is
inefficient to train an agent in environments with randomized conditions to
learn the important features of its current state. An agent can use domain
knowledge provided by human experts to learn efficiently. We propose a novel
approach that uses graph neural networks in conjunction with deep reinforcement
learning, enabling decision-making over graphs containing relevant exploration
information provided by human experts to predict a robot's optimal sensing
action in belief space. The policy, which is trained only in a single
simulation environment, offers a real-time, scalable, and transferable
decision-making strategy, resulting in zero-shot transfer to other simulation
environments and even real-world environments.
- Abstract(参考訳): 本稿では,3次元距離センサを用いた移動ロボットの局所不確実性を考慮した自律探索問題について検討する。
本研究では,単一シミュレーション環境における高性能探索政策を自己学習し,物理的あるいは仮想的な他の環境に転送する枠組みを提案する。
転送学習における最近の研究は、ドメイン適応とドメインランダム化によって、sim2simおよびsim2realアプローチの固有のギャップを埋めるシナリオにエージェントを公開するために、パフォーマンスを向上する。
しかし、ランダムな環境下でエージェントを訓練し、その状態の重要な特徴を学習するのは非効率である。
エージェントは、人間の専門家が提供するドメイン知識を使って効率的に学習することができる。
本稿では,グラフニューラルネットワークと深層強化学習を併用し,人間の専門家が提供した探索情報を含むグラフ上での意思決定を行い,信念空間におけるロボットの最適センシング行動を予測する新しい手法を提案する。
このポリシーは、単一のシミュレーション環境でのみ訓練され、リアルタイムでスケーラブルで、転送可能な意思決定戦略を提供し、その結果、他のシミュレーション環境や実際の環境にゼロショットで転送される。
関連論文リスト
- Sim-to-Real Transfer of Deep Reinforcement Learning Agents for Online Coverage Path Planning [15.792914346054502]
我々は、カバーパス計画(CPP)のための強化学習エージェント(RL)のSim-to-real転送の課題に取り組む。
シミュレーションされたセンサと障害物を利用しながら、現実のロボットやリアルタイムの側面を含む半仮想環境を通じて、シミュレートと現実のギャップを橋渡しする。
高い推測周波数は、一階マルコフのポリシーをシミュレーションから直接転送することを可能にし、高階のポリシーを微調整することで、sim-to-realのギャップをさらに減らすことができる。
論文 参考訳(メタデータ) (2024-06-07T13:24:19Z) - Learning to navigate efficiently and precisely in real environments [14.52507964172957]
Embodied AIの文献は、HabitatやAI-Thorといったシミュレータで訓練されたエンドツーエンドエージェントに焦点を当てている。
本研究では,sim2realのギャップを最小限に抑えたシミュレーションにおけるエージェントのエンドツーエンドトレーニングについて検討する。
論文 参考訳(メタデータ) (2024-01-25T17:50:05Z) - Planning for Learning Object Properties [117.27898922118946]
我々は、物体特性を象徴的な計画問題として認識するために、ニューラルネットワークを自動的に訓練する問題を定式化する。
トレーニングデータセット作成と学習プロセスを自動化するための戦略を作成するために,計画手法を使用します。
シミュレーションと実環境の両方で実験的な評価を行う。
論文 参考訳(メタデータ) (2023-01-15T09:37:55Z) - Imitation Learning for Generalizable Self-driving Policy with
Sim-to-real Transfer [0.0]
本研究は,この課題を達成できる3つの模倣学習と2つのシミュレート・トゥ・リアルな手法を提案する。
これらのテクニックについて、それらのメリットとデメリットを強調するために、詳細な比較が提供されている。
論文 参考訳(メタデータ) (2022-06-22T01:36:14Z) - Towards Autonomous Grading In The Real World [4.651327752886103]
我々は、不均一な領域を平坦化するためにドーザを必要とする自律的なグレーディングの問題に取り組むことを目的としている。
本研究では,現実的な物理シミュレーションと実ドーザーのダイナミックスと感覚情報を模倣した拡張された実プロトタイプ環境の両方を設計する。
論文 参考訳(メタデータ) (2022-06-13T12:21:20Z) - Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z) - Autonomous Exploration Under Uncertainty via Deep Reinforcement Learning
on Graphs [5.043563227694137]
本研究では,移動ロボットが事前の未知環境におけるランドマークの正確なマッピングをリアルタイムで効率的に行うという自律的な探索問題を考察する。
本稿では,グラフニューラルネットワーク(GNN)と深部強化学習(DRL)を併用した新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-24T16:50:41Z) - Guided Uncertainty-Aware Policy Optimization: Combining Learning and
Model-Based Strategies for Sample-Efficient Policy Learning [75.56839075060819]
従来のロボットのアプローチは、環境の正確なモデル、タスクの実行方法の詳細な説明、現在の状態を追跡するための堅牢な認識システムに依存している。
強化学習アプローチは、タスクを記述するための報酬信号だけで、生の感覚入力から直接操作することができるが、非常にサンプル非効率で脆弱である。
本研究では,ロボットの知覚・運動パイプラインにおける不正確さを克服できる一般的な手法を得るために,モデルに基づく手法の強みと学習に基づく手法の柔軟性を組み合わせる。
論文 参考訳(メタデータ) (2020-05-21T19:47:05Z) - The Chef's Hat Simulation Environment for Reinforcement-Learning-Based
Agents [54.63186041942257]
本稿では,人間-ロボットインタラクションのシナリオで使用されるように設計されたChef's Hatカードゲームを実装する仮想シミュレーション環境を提案する。
本稿では,強化学習アルゴリズムにおける制御可能かつ再現可能なシナリオを提案する。
論文 参考訳(メタデータ) (2020-03-12T15:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。