論文の概要: APPLD: Adaptive Planner Parameter Learning from Demonstration
- arxiv url: http://arxiv.org/abs/2004.00116v4
- Date: Wed, 15 Jul 2020 18:35:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 02:01:28.007924
- Title: APPLD: Adaptive Planner Parameter Learning from Demonstration
- Title(参考訳): APPLD:デモから学習する適応型プランナーパラメータ
- Authors: Xuesu Xiao, Bo Liu, Garrett Warnell, Jonathan Fink, Peter Stone
- Abstract要約: 本稿では,既存のナビゲーションシステムを新しい複雑な環境に適用可能な,適応プランナー学習(Adaptive Planner Learning from Demonstration)のAPPLDを紹介する。
APPLDは異なる環境で異なるナビゲーションシステムを実行する2つのロボットで検証されている。
実験結果から,APPLDはナビゲーションシステムよりも,デフォルトパラメータや専門家パラメータ,さらには人間実証者自体よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 48.63930323392909
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing autonomous robot navigation systems allow robots to move from one
point to another in a collision-free manner. However, when facing new
environments, these systems generally require re-tuning by expert roboticists
with a good understanding of the inner workings of the navigation system. In
contrast, even users who are unversed in the details of robot navigation
algorithms can generate desirable navigation behavior in new environments via
teleoperation. In this paper, we introduce APPLD, Adaptive Planner Parameter
Learning from Demonstration, that allows existing navigation systems to be
successfully applied to new complex environments, given only a human
teleoperated demonstration of desirable navigation. APPLD is verified on two
robots running different navigation systems in different environments.
Experimental results show that APPLD can outperform navigation systems with the
default and expert-tuned parameters, and even the human demonstrator
themselves.
- Abstract(参考訳): 既存の自律型ロボットナビゲーションシステムでは、ロボットは衝突のない方法である地点から別の地点へ移動することができる。
しかし、新しい環境に直面する場合、これらのシステムは一般的に、ナビゲーションシステムの内部動作を十分に理解した専門家ロボット工学者による再調整を必要とする。
対照的に、ロボットナビゲーションアルゴリズムの詳細を知らないユーザでさえ、遠隔操作によって新しい環境で望ましいナビゲーション行動を生成することができる。
本稿では,人間の遠隔操作による望ましいナビゲーションのデモンストレーションを前提に,既存のナビゲーションシステムを新しい複雑な環境に適用できるappld(adaptive planner parameter learning from demonstration)を提案する。
appldは異なる環境で異なるナビゲーションシステムを実行する2つのロボットで検証される。
実験結果から,APPLDはナビゲーションシステムよりも,デフォルトパラメータや専門家パラメータ,さらには人間実証者自体よりも優れていることが示された。
関連論文リスト
- Hierarchical end-to-end autonomous navigation through few-shot waypoint detection [0.0]
人間のナビゲーションはランドマークと行動の関連によって促進される。
現在の自律ナビゲーション方式は、正確な位置決め装置とアルゴリズム、および環境から収集されたセンサーデータの広範なストリームに依存している。
本研究では,移動ロボットがこれまで知られていなかった環境をナビゲートできる階層型メタ学習手法を提案する。
論文 参考訳(メタデータ) (2024-09-23T00:03:39Z) - Aligning Robot Navigation Behaviors with Human Intentions and Preferences [2.9914612342004503]
この論文は,「自律移動ロボットのナビゲーション行動と人間の意図と嗜好を一致させるために,機械学習手法をどのように利用できるのか?」という疑問に答えることを目的としている。
第一に、この論文は、意図したナビゲーションタスクの人間が提供する実演を模倣することにより、ナビゲーション行動を学ぶための新しいアプローチを導入している。
第二に、この論文は、視覚的な地形認識を自己監督的に学習することで、移動ロボットの地形認識オフロードナビゲーションを強化する2つのアルゴリズムを導入している。
論文 参考訳(メタデータ) (2024-09-16T03:45:00Z) - ETPNav: Evolving Topological Planning for Vision-Language Navigation in
Continuous Environments [56.194988818341976]
視覚言語ナビゲーションは、エージェントが環境中をナビゲートするための指示に従う必要があるタスクである。
本研究では,1)環境を抽象化し,長距離航法計画を生成する能力,2)連続環境における障害物回避制御能力の2つの重要なスキルに焦点を当てたETPNavを提案する。
ETPNavは、R2R-CEとRxR-CEデータセットの先行技術よりも10%以上、20%改善されている。
論文 参考訳(メタデータ) (2023-04-06T13:07:17Z) - Learning Social Navigation from Demonstrations with Conditional Neural
Processes [2.627046865670577]
本稿では,コンディショナル・ニューラル・プロセスを用いて,移動ロボットのグローバル・ローカル・コントローラを観測から学習するデータ駆動ナビゲーションアーキテクチャを提案する。
提案手法は,データ中の社会的規範に関するナビゲーションタスクをうまく実行できることを実証した。
論文 参考訳(メタデータ) (2022-10-07T14:37:56Z) - GNM: A General Navigation Model to Drive Any Robot [67.40225397212717]
視覚に基づくナビゲーションのための一般的な目標条件付きモデルは、多くの異なるが構造的に類似したロボットから得られたデータに基づいて訓練することができる。
ロボット間の効率的なデータ共有に必要な設計決定について分析する。
我々は、訓練されたGNMを、下四極子を含む様々な新しいロボットに展開する。
論文 参考訳(メタデータ) (2022-10-07T07:26:41Z) - Socially Compliant Navigation Dataset (SCAND): A Large-Scale Dataset of
Demonstrations for Social Navigation [92.66286342108934]
社会ナビゲーションは、ロボットのような自律的なエージェントが、人間のような他の知的エージェントの存在下で、社会的に従順な方法でナビゲートする能力である。
私たちのデータセットには8.7時間、128の軌道、25マイルの社会的に適合した人間の遠隔運転デモが含まれています。
論文 参考訳(メタデータ) (2022-03-28T19:09:11Z) - ReLMM: Practical RL for Learning Mobile Manipulation Skills Using Only
Onboard Sensors [64.2809875343854]
ロボットは、ナビゲーションと把握の組み合わせを必要とするスキルを自律的に学習する方法について研究する。
我々のシステムであるReLMMは、環境機器を使わずに、現実世界のプラットフォームで継続的に学習することができる。
グラウンドカリキュラムトレーニングフェーズの後、ReLMMは、現実世界のトレーニングの約40時間で、ナビゲーションと完全に自動的なグリップを学習できる。
論文 参考訳(メタデータ) (2021-07-28T17:59:41Z) - LaND: Learning to Navigate from Disengagements [158.6392333480079]
本研究では,学習者に対する学習支援のための強化学習手法(LaND)を提案する。
LaNDは現在の知覚的観察から、どのアクションが解離につながるかを予測するニューラルネットワークモデルを学び、テスト時計画で解離を回避するアクションを実行する。
以上の結果から,LaNDは多種多様な現実世界の歩道環境を学習し,模倣学習と強化学習の両方に優れることを示した。
論文 参考訳(メタデータ) (2020-10-09T17:21:42Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。