論文の概要: Trust-Aware Planning: Modeling Trust Evolution in Longitudinal
Human-Robot Interaction
- arxiv url: http://arxiv.org/abs/2105.01220v1
- Date: Mon, 3 May 2021 23:38:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 12:50:50.412146
- Title: Trust-Aware Planning: Modeling Trust Evolution in Longitudinal
Human-Robot Interaction
- Title(参考訳): 信頼認識計画:人間とロボットの縦断的相互作用における信頼進化のモデリング
- Authors: Zahra Zahedi, Mudit Verma, Sarath Sreedharan, Subbarao Kambhampati
- Abstract要約: 本稿では,人間-ロボット間インタラクションにおける信頼をキャプチャし,変調する計算モデルを提案する。
我々のモデルでは、ロボットは人間の信頼とロボットからの期待をその計画プロセスに統合し、相互作用の地平線に対する信頼を構築し維持する。
- 参考スコア(独自算出の注目度): 21.884895329834112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trust between team members is an essential requirement for any successful
cooperation. Thus, engendering and maintaining the fellow team members' trust
becomes a central responsibility for any member trying to not only successfully
participate in the task but to ensure the team achieves its goals. The problem
of trust management is particularly challenging in mixed human-robot teams
where the human and the robot may have different models about the task at hand
and thus may have different expectations regarding the current course of action
and forcing the robot to focus on the costly explicable behavior. We propose a
computational model for capturing and modulating trust in such longitudinal
human-robot interaction, where the human adopts a supervisory role. In our
model, the robot integrates human's trust and their expectations from the robot
into its planning process to build and maintain trust over the interaction
horizon. By establishing the required level of trust, the robot can focus on
maximizing the team goal by eschewing explicit explanatory or explicable
behavior without worrying about the human supervisor monitoring and intervening
to stop behaviors they may not necessarily understand. We model this reasoning
about trust levels as a meta reasoning process over individual planning tasks.
We additionally validate our model through a human subject experiment.
- Abstract(参考訳): チームメンバ間の信頼は、成功する協力には不可欠です。
したがって、仲間のチームメンバの信頼の獲得と維持は、タスクへの参加を成功させるだけでなく、チームが目標を達成するために、すべてのメンバにとって中心的な責任となる。
信頼管理の問題は、人間とロボットが目の前のタスクについて異なるモデルを持ち、現在の行動方針について異なる期待を抱いており、ロボットにコストのかかる行動に集中させるような人間とロボットの混成チームにおいて特に困難である。
本研究では,人間とロボットの相互作用における信頼の獲得と調整のための計算モデルを提案する。
我々のモデルでは、ロボットは人間の信頼とロボットからの期待をその計画プロセスに統合し、相互作用の地平線に対する信頼を構築し維持する。
必要なレベルの信頼を確立することで、ロボットは、人間の監督の監視を気にせずに明示的な説明や説明可能な行動を誘発し、必ずしも理解できない行動を止めることで、チームのゴールを最大化することに集中することができる。
私たちは、個々の計画タスクよりも、信頼レベルに関する推論をメタ推論プロセスとしてモデル化します。
さらに、人間の被験者実験を通じてモデルを検証する。
関連論文リスト
- An Epistemic Human-Aware Task Planner which Anticipates Human Beliefs and Decisions [8.309981857034902]
目的は、制御不能な人間の行動を説明するロボットポリシーを構築することである。
提案手法は,AND-OR探索に基づく新しい計画手法と解法の構築である。
2つの領域における予備的な実験は、1つの新しいものと1つの適応されたもので、フレームワークの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-27T08:27:36Z) - Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - ToP-ToM: Trust-aware Robot Policy with Theory of Mind [3.4850414292716327]
心の理論 (Theory of Mind, ToM) は、人間に心的状態を他者に与える能力を与える認知的アーキテクチャである。
本稿では,マルチエージェント環境下での心の理論による信頼を意識したロボット政策について検討する。
論文 参考訳(メタデータ) (2023-11-07T23:55:56Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Robust Planning for Human-Robot Joint Tasks with Explicit Reasoning on
Human Mental State [2.8246074016493457]
我々は,人間ロボットチームが達成するための既知の目的を持った共有タスクを与えられる,人間に意識したタスク計画問題を考える。
近年のアプローチでは、ロボットが両方のエージェント(共有された)タスクを計画する独立した合理的エージェントのチームとしてそれをモデル化している。
本稿では,実行時の可観測性規約をモデル化し,使用するための新しいアプローチについて述べる。
論文 参考訳(メタデータ) (2022-10-17T09:21:00Z) - Evaluation of Performance-Trust vs Moral-Trust Violation in 3D
Environment [1.4502611532302039]
本研究の目的は,探索・救助シナリオにおいて,パフォーマンストラスト違反とモラルトラスト違反がもたらす影響を調査する実験を設計することである。
同じようなロボットの障害が2つあり、1つはパフォーマンストラスト違反によるもので、もう1つはモラルトラスト違反によるもので、人間の信頼に明確な影響があるかどうかを確認したい。
論文 参考訳(メタデータ) (2022-06-30T17:27:09Z) - Trust as Extended Control: Active Inference and User Feedback During
Human-Robot Collaboration [2.6381163133447836]
その重要な役割にもかかわらず、信頼がどのように出現し、発展し、人間以外の人工物との人間の相互作用をサポートするかはほとんど不明です。
拡張モータープラントやパートナーとの信頼性の高い感覚交換のためのエージェントの最良の説明として信頼のモデルを紹介する。
信頼の成因における共有行動の役割について,特にダイアドコラボレーションの文脈で検討する。
論文 参考訳(メタデータ) (2021-04-22T16:11:22Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。