論文の概要: Can a Robot Trust You? A DRL-Based Approach to Trust-Driven Human-Guided
Navigation
- arxiv url: http://arxiv.org/abs/2011.00554v1
- Date: Sun, 1 Nov 2020 16:43:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 23:56:33.525966
- Title: Can a Robot Trust You? A DRL-Based Approach to Trust-Driven Human-Guided
Navigation
- Title(参考訳): ロボットはあなたを信頼できるのか?
DRLに基づく信頼駆動型ヒューマンガイドナビゲーション
- Authors: Vishnu Sashank Dorbala, Arjun Srinivasan, and Aniket Bera
- Abstract要約: 言語誘導ナビゲーションタスクを実行するために,人間の信頼性を学習する信頼駆動型ロボットナビゲーションアルゴリズムを提案する。
言語に基づく指示から様々な情緒的特徴を考察し、それを人間の信頼度という形で政策の観察空間に組み込む。
この結果から,学習方針は爆発的アプローチとは対照的に,最適な時間効率で環境をナビゲートできることが示唆された。
- 参考スコア(独自算出の注目度): 28.492657539522106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans are known to construct cognitive maps of their everyday surroundings
using a variety of perceptual inputs. As such, when a human is asked for
directions to a particular location, their wayfinding capability in converting
this cognitive map into directional instructions is challenged. Owing to
spatial anxiety, the language used in the spoken instructions can be vague and
often unclear. To account for this unreliability in navigational guidance, we
propose a novel Deep Reinforcement Learning (DRL) based trust-driven robot
navigation algorithm that learns humans' trustworthiness to perform a language
guided navigation task. Our approach seeks to answer the question as to whether
a robot can trust a human's navigational guidance or not. To this end, we look
at training a policy that learns to navigate towards a goal location using only
trustworthy human guidance, driven by its own robot trust metric. We look at
quantifying various affective features from language-based instructions and
incorporate them into our policy's observation space in the form of a human
trust metric. We utilize both these trust metrics into an optimal cognitive
reasoning scheme that decides when and when not to trust the given guidance.
Our results show that the learned policy can navigate the environment in an
optimal, time-efficient manner as opposed to an explorative approach that
performs the same task. We showcase the efficacy of our results both in
simulation and a real-world environment.
- Abstract(参考訳): 人間は様々な知覚入力を用いて日常の環境の認知マップを構築することが知られている。
そのため、人間に特定の場所への道順を尋ねると、この認知地図を方向指示に変換する際の方向決め能力に課題が生じる。
空間的不安のため、音声命令で使われる言語は曖昧であり、しばしば不明瞭である。
ナビゲーション指導におけるこの信頼性の欠如を考慮し,人間の信頼性を学習して言語誘導ナビゲーションタスクを実行する,DRLに基づく信頼駆動型ロボットナビゲーションアルゴリズムを提案する。
我々のアプローチは、ロボットが人間のナビゲーション指導を信頼できるかどうかという疑問に答えようとしている。
この目的のために、我々は、ロボット信頼度測定によって駆動される、信頼できる人的ガイダンスのみを使用して、目標地点に向かうことを学習する政策の訓練に目を向ける。
我々は、言語に基づく指示から様々な感情的特徴を定量化し、人間の信頼度指標の形でポリシーの観察空間にそれらを組み込む。
両者の信頼度を最適な認知的推論スキームに利用し、与えられた指導をいつ、いつ、いつ信頼するかを決定する。
その結果,学習した政策は,同じタスクを実行する爆発的アプローチとは対照的に,最適な時間効率で環境をナビゲートできることがわかった。
シミュレーションと実環境における実験結果の有効性について紹介する。
関連論文リスト
- SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - "No, to the Right" -- Online Language Corrections for Robotic
Manipulation via Shared Autonomy [70.45420918526926]
LILACは、実行中に自然言語の修正をオンラインで実施し、適応するためのフレームワークである。
LILACは人間とロボットを個別にターンテイクする代わりに、人間とロボットの間にエージェンシーを分割する。
提案手法は,タスク完了率が高く,ユーザによって主観的に好まれることを示す。
論文 参考訳(メタデータ) (2023-01-06T15:03:27Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - RCA: Ride Comfort-Aware Visual Navigation via Self-Supervised Learning [14.798955901284847]
共有された自律性の下では、車いすの利用者は安全で快適な乗用車を提供し、高レベルのナビゲーション計画に従うことを期待する。
本稿では,固有感覚を用いた走行性解析において,乗り心地を明示的にモデル化することを提案する。
我々のナビゲーションシステムは,ロボット実験を通じて人間に好意的な乗り心地を提供するとともに,人間の評価研究も行っている。
論文 参考訳(メタデータ) (2022-07-29T03:38:41Z) - ReLMM: Practical RL for Learning Mobile Manipulation Skills Using Only
Onboard Sensors [64.2809875343854]
ロボットは、ナビゲーションと把握の組み合わせを必要とするスキルを自律的に学習する方法について研究する。
我々のシステムであるReLMMは、環境機器を使わずに、現実世界のプラットフォームで継続的に学習することができる。
グラウンドカリキュラムトレーニングフェーズの後、ReLMMは、現実世界のトレーニングの約40時間で、ナビゲーションと完全に自動的なグリップを学習できる。
論文 参考訳(メタデータ) (2021-07-28T17:59:41Z) - Navigation Turing Test (NTT): Learning to Evaluate Human-Like Navigation [9.456752543341464]
複雑な人間のような振る舞いを学習するエージェントを開発する上で重要な課題は、人間の類似性を迅速かつ正確に定量化する必要があることである。
これらの制限に対処するために,人間に近い人間の判断を学習する新しい自動ナビゲーションチューリングテスト(ANTT)を提案する。
論文 参考訳(メタデータ) (2021-05-20T10:14:23Z) - Active Visual Information Gathering for Vision-Language Navigation [115.40768457718325]
視覚言語ナビゲーション(VLN)は、エージェントがフォトリアリスティックな環境の中でナビゲーションの指示を行うためのタスクである。
VLNの重要な課題の1つは、曖昧な指示による不確実性を緩和し、環境の観察を不十分にすることで、堅牢なナビゲーションを行う方法である。
この研究は、人間のナビゲーション行動からインスピレーションを得て、よりインテリジェントなVLNポリシーのためのアクティブな情報収集能力を持つエージェントを提供する。
論文 参考訳(メタデータ) (2020-07-15T23:54:20Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。