論文の概要: Learning Personalized Human-Aware Robot Navigation Using Virtual Reality
Demonstrations from a User Study
- arxiv url: http://arxiv.org/abs/2203.14741v1
- Date: Mon, 28 Mar 2022 13:31:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 16:39:31.601170
- Title: Learning Personalized Human-Aware Robot Navigation Using Virtual Reality
Demonstrations from a User Study
- Title(参考訳): バーチャルリアリティによるパーソナライズされた人間認識ロボットナビゲーションの学習
- Authors: Jorge de Heuvel, Nathan Corral, Lilli Bruckschen, Maren Bennewitz
- Abstract要約: 本稿では,パーソナライズされたナビゲーションコントローラを学習するための新しい強化学習フレームワークを提案する。
実施したユーザスタディは、パーソナライズされたアプローチが古典的なアプローチよりも大幅に優れていることを示す。
我々は、性能を損なうことなくナビゲーションコントローラを実際のロボットに転送する。
- 参考スコア(独自算出の注目度): 9.118706387430883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For the most comfortable, human-aware robot navigation, subjective user
preferences need to be taken into account. This paper presents a novel
reinforcement learning framework to train a personalized navigation controller
along with an intuitive virtual reality demonstration interface. The conducted
user study provides evidence that our personalized approach significantly
outperforms classical approaches with more comfortable human-robot experiences.
We achieve these results using only a few demonstration trajectories from
non-expert users, who predominantly appreciate the intuitive demonstration
setup. As we show in the experiments, the learned controller generalizes well
to states not covered in the demonstration data, while still reflecting user
preferences during navigation. Finally, we transfer the navigation controller
without loss in performance to a real robot.
- Abstract(参考訳): 最も快適で人間を意識したロボットナビゲーションのためには、主観的なユーザー好みを考慮する必要がある。
本稿では,パーソナライズされたナビゲーションコントローラと直感的なバーチャルリアリティデモインタフェースを学習するための,新しい強化学習フレームワークを提案する。
実施したユーザー調査は、私たちのパーソナライズされたアプローチが、より快適な人間-ロボット体験で古典的アプローチを著しく上回っていることを示している。
これらの結果を得るためには,非熟練ユーザによるデモトラジェクタをほんの数個使用して,直感的なデモ設定を主に評価する。
実験で示すように、学習したコントローラは、ナビゲーション中のユーザの好みを反映しながら、デモデータにカバーされていない状態によく一般化する。
最後に,実ロボットに性能を損なうことなくナビゲーションコントローラを転送する。
関連論文リスト
- CANVAS: Commonsense-Aware Navigation System for Intuitive Human-Robot Interaction [19.997935470257794]
本稿では,コモンセンス認識ナビゲーションのための視覚的および言語的指示を組み合わせたフレームワークであるCANVASを提案する。
その成功は模倣学習によって引き起こされ、ロボットは人間のナビゲーション行動から学ぶことができる。
実験の結果,CANVASはすべての環境において,強力なルールベースシステムであるROS NavStackよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-10-02T06:34:45Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Offline Reinforcement Learning for Visual Navigation [66.88830049694457]
ReViNDは、ロボットナビゲーションのための最初のオフラインRLシステムで、これまで収集されたデータを利用して、現実世界でユーザーが指定した報酬関数を最適化する。
ReViNDは、このデータセットからのオフライントレーニングのみを使用して、遠方の目標にナビゲートできることを示し、ユーザ指定の報酬関数に基づいて、質的に異なる振る舞いを示す。
論文 参考訳(メタデータ) (2022-12-16T02:23:50Z) - Learning Social Navigation from Demonstrations with Conditional Neural
Processes [2.627046865670577]
本稿では,コンディショナル・ニューラル・プロセスを用いて,移動ロボットのグローバル・ローカル・コントローラを観測から学習するデータ駆動ナビゲーションアーキテクチャを提案する。
提案手法は,データ中の社会的規範に関するナビゲーションタスクをうまく実行できることを実証した。
論文 参考訳(メタデータ) (2022-10-07T14:37:56Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - Learning Reward Functions from Scale Feedback [11.941038991430837]
一般的なフレームワークは、ユーザーが好む2つのロボット軌跡について反復的に質問することである。
そこで我々は,ユーザがスライダを使ってよりニュアンスな情報を提供するスケールフィードバックを提案する。
シミュレーションにおいてスライダフィードバックの利点を実証し,2つのユーザスタディにおけるアプローチの有効性を検証する。
論文 参考訳(メタデータ) (2021-10-01T09:45:18Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - VOILA: Visual-Observation-Only Imitation Learning for Autonomous
Navigation [44.799092976955656]
我々は、自律ナビゲーションのための新しいアルゴリズム、視覚観察のみの模倣学習(VOILA)を導入する。
VOILAは、物理的に異なるエージェントから収集された単一のビデオデモからナビゲーションポリシーを学ぶ。
本稿では,VOILAが専門家を模倣するだけでなく,新しい環境に一般化可能なナビゲーションポリシーも学習していることを示す。
論文 参考訳(メタデータ) (2021-05-19T19:25:23Z) - APPLD: Adaptive Planner Parameter Learning from Demonstration [48.63930323392909]
本稿では,既存のナビゲーションシステムを新しい複雑な環境に適用可能な,適応プランナー学習(Adaptive Planner Learning from Demonstration)のAPPLDを紹介する。
APPLDは異なる環境で異なるナビゲーションシステムを実行する2つのロボットで検証されている。
実験結果から,APPLDはナビゲーションシステムよりも,デフォルトパラメータや専門家パラメータ,さらには人間実証者自体よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-03-31T21:15:16Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。