論文の概要: APPLD: Adaptive Planner Parameter Learning from Demonstration
- arxiv url: http://arxiv.org/abs/2004.00116v4
- Date: Wed, 15 Jul 2020 18:35:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 02:01:28.007924
- Title: APPLD: Adaptive Planner Parameter Learning from Demonstration
- Title(参考訳): APPLD:デモから学習する適応型プランナーパラメータ
- Authors: Xuesu Xiao, Bo Liu, Garrett Warnell, Jonathan Fink, Peter Stone
- Abstract要約: 本稿では,既存のナビゲーションシステムを新しい複雑な環境に適用可能な,適応プランナー学習(Adaptive Planner Learning from Demonstration)のAPPLDを紹介する。
APPLDは異なる環境で異なるナビゲーションシステムを実行する2つのロボットで検証されている。
実験結果から,APPLDはナビゲーションシステムよりも,デフォルトパラメータや専門家パラメータ,さらには人間実証者自体よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 48.63930323392909
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing autonomous robot navigation systems allow robots to move from one
point to another in a collision-free manner. However, when facing new
environments, these systems generally require re-tuning by expert roboticists
with a good understanding of the inner workings of the navigation system. In
contrast, even users who are unversed in the details of robot navigation
algorithms can generate desirable navigation behavior in new environments via
teleoperation. In this paper, we introduce APPLD, Adaptive Planner Parameter
Learning from Demonstration, that allows existing navigation systems to be
successfully applied to new complex environments, given only a human
teleoperated demonstration of desirable navigation. APPLD is verified on two
robots running different navigation systems in different environments.
Experimental results show that APPLD can outperform navigation systems with the
default and expert-tuned parameters, and even the human demonstrator
themselves.
- Abstract(参考訳): 既存の自律型ロボットナビゲーションシステムでは、ロボットは衝突のない方法である地点から別の地点へ移動することができる。
しかし、新しい環境に直面する場合、これらのシステムは一般的に、ナビゲーションシステムの内部動作を十分に理解した専門家ロボット工学者による再調整を必要とする。
対照的に、ロボットナビゲーションアルゴリズムの詳細を知らないユーザでさえ、遠隔操作によって新しい環境で望ましいナビゲーション行動を生成することができる。
本稿では,人間の遠隔操作による望ましいナビゲーションのデモンストレーションを前提に,既存のナビゲーションシステムを新しい複雑な環境に適用できるappld(adaptive planner parameter learning from demonstration)を提案する。
appldは異なる環境で異なるナビゲーションシステムを実行する2つのロボットで検証される。
実験結果から,APPLDはナビゲーションシステムよりも,デフォルトパラメータや専門家パラメータ,さらには人間実証者自体よりも優れていることが示された。
関連論文リスト
- Target Search and Navigation in Heterogeneous Robot Systems with Deep
Reinforcement Learning [3.3167319223959373]
未知の環境下での探索・救助ミッションのためのUAVとUGVからなる異種ロボットシステムを設計する。
このシステムは、深い強化学習アルゴリズムによって学習されたポリシーを用いて、迷路のような鉱山環境でターゲットを探索し、それらをナビゲートすることができる。
論文 参考訳(メタデータ) (2023-08-01T07:09:14Z) - ETPNav: Evolving Topological Planning for Vision-Language Navigation in
Continuous Environments [56.194988818341976]
視覚言語ナビゲーションは、エージェントが環境中をナビゲートするための指示に従う必要があるタスクである。
本研究では,1)環境を抽象化し,長距離航法計画を生成する能力,2)連続環境における障害物回避制御能力の2つの重要なスキルに焦点を当てたETPNavを提案する。
ETPNavは、R2R-CEとRxR-CEデータセットの先行技術よりも10%以上、20%改善されている。
論文 参考訳(メタデータ) (2023-04-06T13:07:17Z) - Control Transformer: Robot Navigation in Unknown Environments through
PRM-Guided Return-Conditioned Sequence Modeling [0.0]
サンプルベース確率的ロードマッププランナによって導かれる低レベルポリシーから返却条件付きシーケンスをモデル化する制御変換器を提案する。
制御トランスフォーマーは迷路を通り、未知の環境へ移動できることを示す。
論文 参考訳(メタデータ) (2022-11-11T18:44:41Z) - Learning Social Navigation from Demonstrations with Conditional Neural
Processes [2.627046865670577]
本稿では,コンディショナル・ニューラル・プロセスを用いて,移動ロボットのグローバル・ローカル・コントローラを観測から学習するデータ駆動ナビゲーションアーキテクチャを提案する。
提案手法は,データ中の社会的規範に関するナビゲーションタスクをうまく実行できることを実証した。
論文 参考訳(メタデータ) (2022-10-07T14:37:56Z) - GNM: A General Navigation Model to Drive Any Robot [67.40225397212717]
視覚に基づくナビゲーションのための一般的な目標条件付きモデルは、多くの異なるが構造的に類似したロボットから得られたデータに基づいて訓練することができる。
ロボット間の効率的なデータ共有に必要な設計決定について分析する。
我々は、訓練されたGNMを、下四極子を含む様々な新しいロボットに展開する。
論文 参考訳(メタデータ) (2022-10-07T07:26:41Z) - Socially Compliant Navigation Dataset (SCAND): A Large-Scale Dataset of
Demonstrations for Social Navigation [92.66286342108934]
社会ナビゲーションは、ロボットのような自律的なエージェントが、人間のような他の知的エージェントの存在下で、社会的に従順な方法でナビゲートする能力である。
私たちのデータセットには8.7時間、128の軌道、25マイルの社会的に適合した人間の遠隔運転デモが含まれています。
論文 参考訳(メタデータ) (2022-03-28T19:09:11Z) - ReLMM: Practical RL for Learning Mobile Manipulation Skills Using Only
Onboard Sensors [64.2809875343854]
ロボットは、ナビゲーションと把握の組み合わせを必要とするスキルを自律的に学習する方法について研究する。
我々のシステムであるReLMMは、環境機器を使わずに、現実世界のプラットフォームで継続的に学習することができる。
グラウンドカリキュラムトレーニングフェーズの後、ReLMMは、現実世界のトレーニングの約40時間で、ナビゲーションと完全に自動的なグリップを学習できる。
論文 参考訳(メタデータ) (2021-07-28T17:59:41Z) - LaND: Learning to Navigate from Disengagements [158.6392333480079]
本研究では,学習者に対する学習支援のための強化学習手法(LaND)を提案する。
LaNDは現在の知覚的観察から、どのアクションが解離につながるかを予測するニューラルネットワークモデルを学び、テスト時計画で解離を回避するアクションを実行する。
以上の結果から,LaNDは多種多様な現実世界の歩道環境を学習し,模倣学習と強化学習の両方に優れることを示した。
論文 参考訳(メタデータ) (2020-10-09T17:21:42Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。