論文の概要: Can a Robot Trust You? A DRL-Based Approach to Trust-Driven Human-Guided
Navigation
- arxiv url: http://arxiv.org/abs/2011.00554v1
- Date: Sun, 1 Nov 2020 16:43:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 23:56:33.525966
- Title: Can a Robot Trust You? A DRL-Based Approach to Trust-Driven Human-Guided
Navigation
- Title(参考訳): ロボットはあなたを信頼できるのか?
DRLに基づく信頼駆動型ヒューマンガイドナビゲーション
- Authors: Vishnu Sashank Dorbala, Arjun Srinivasan, and Aniket Bera
- Abstract要約: 言語誘導ナビゲーションタスクを実行するために,人間の信頼性を学習する信頼駆動型ロボットナビゲーションアルゴリズムを提案する。
言語に基づく指示から様々な情緒的特徴を考察し、それを人間の信頼度という形で政策の観察空間に組み込む。
この結果から,学習方針は爆発的アプローチとは対照的に,最適な時間効率で環境をナビゲートできることが示唆された。
- 参考スコア(独自算出の注目度): 28.492657539522106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans are known to construct cognitive maps of their everyday surroundings
using a variety of perceptual inputs. As such, when a human is asked for
directions to a particular location, their wayfinding capability in converting
this cognitive map into directional instructions is challenged. Owing to
spatial anxiety, the language used in the spoken instructions can be vague and
often unclear. To account for this unreliability in navigational guidance, we
propose a novel Deep Reinforcement Learning (DRL) based trust-driven robot
navigation algorithm that learns humans' trustworthiness to perform a language
guided navigation task. Our approach seeks to answer the question as to whether
a robot can trust a human's navigational guidance or not. To this end, we look
at training a policy that learns to navigate towards a goal location using only
trustworthy human guidance, driven by its own robot trust metric. We look at
quantifying various affective features from language-based instructions and
incorporate them into our policy's observation space in the form of a human
trust metric. We utilize both these trust metrics into an optimal cognitive
reasoning scheme that decides when and when not to trust the given guidance.
Our results show that the learned policy can navigate the environment in an
optimal, time-efficient manner as opposed to an explorative approach that
performs the same task. We showcase the efficacy of our results both in
simulation and a real-world environment.
- Abstract(参考訳): 人間は様々な知覚入力を用いて日常の環境の認知マップを構築することが知られている。
そのため、人間に特定の場所への道順を尋ねると、この認知地図を方向指示に変換する際の方向決め能力に課題が生じる。
空間的不安のため、音声命令で使われる言語は曖昧であり、しばしば不明瞭である。
ナビゲーション指導におけるこの信頼性の欠如を考慮し,人間の信頼性を学習して言語誘導ナビゲーションタスクを実行する,DRLに基づく信頼駆動型ロボットナビゲーションアルゴリズムを提案する。
我々のアプローチは、ロボットが人間のナビゲーション指導を信頼できるかどうかという疑問に答えようとしている。
この目的のために、我々は、ロボット信頼度測定によって駆動される、信頼できる人的ガイダンスのみを使用して、目標地点に向かうことを学習する政策の訓練に目を向ける。
我々は、言語に基づく指示から様々な感情的特徴を定量化し、人間の信頼度指標の形でポリシーの観察空間にそれらを組み込む。
両者の信頼度を最適な認知的推論スキームに利用し、与えられた指導をいつ、いつ、いつ信頼するかを決定する。
その結果,学習した政策は,同じタスクを実行する爆発的アプローチとは対照的に,最適な時間効率で環境をナビゲートできることがわかった。
シミュレーションと実環境における実験結果の有効性について紹介する。
関連論文リスト
- IGDrivSim: A Benchmark for the Imitation Gap in Autonomous Driving [35.64960921334498]
textbfIGDrivSimはWaymaxシミュレータ上に構築されたベンチマークである。
実験の結果,この認識ギャップは安全かつ効果的な運転行動の学習を妨げることが示された。
本研究は,模倣と強化学習を組み合わせることで,禁止行為に対する簡単な報奨を生かし,これらの失敗を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-11-07T12:28:52Z) - CANVAS: Commonsense-Aware Navigation System for Intuitive Human-Robot Interaction [19.997935470257794]
本稿では,コモンセンス認識ナビゲーションのための視覚的および言語的指示を組み合わせたフレームワークであるCANVASを提案する。
その成功は模倣学習によって引き起こされ、ロボットは人間のナビゲーション行動から学ぶことができる。
実験の結果,CANVASはすべての環境において,強力なルールベースシステムであるROS NavStackよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-10-02T06:34:45Z) - CoNav: A Benchmark for Human-Centered Collaborative Navigation [66.6268966718022]
協調ナビゲーション(CoNav)ベンチマークを提案する。
われわれのCoNavは、現実的で多様な人間の活動を伴う3Dナビゲーション環境を構築するという重要な課題に取り組む。
本研究では,長期的意図と短期的意図の両方を推論する意図認識エージェントを提案する。
論文 参考訳(メタデータ) (2024-06-04T15:44:25Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - "No, to the Right" -- Online Language Corrections for Robotic
Manipulation via Shared Autonomy [70.45420918526926]
LILACは、実行中に自然言語の修正をオンラインで実施し、適応するためのフレームワークである。
LILACは人間とロボットを個別にターンテイクする代わりに、人間とロボットの間にエージェンシーを分割する。
提案手法は,タスク完了率が高く,ユーザによって主観的に好まれることを示す。
論文 参考訳(メタデータ) (2023-01-06T15:03:27Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - ReLMM: Practical RL for Learning Mobile Manipulation Skills Using Only
Onboard Sensors [64.2809875343854]
ロボットは、ナビゲーションと把握の組み合わせを必要とするスキルを自律的に学習する方法について研究する。
我々のシステムであるReLMMは、環境機器を使わずに、現実世界のプラットフォームで継続的に学習することができる。
グラウンドカリキュラムトレーニングフェーズの後、ReLMMは、現実世界のトレーニングの約40時間で、ナビゲーションと完全に自動的なグリップを学習できる。
論文 参考訳(メタデータ) (2021-07-28T17:59:41Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。