論文の概要: Evaluation of Performance-Trust vs Moral-Trust Violation in 3D
Environment
- arxiv url: http://arxiv.org/abs/2206.15430v1
- Date: Thu, 30 Jun 2022 17:27:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 15:24:24.457146
- Title: Evaluation of Performance-Trust vs Moral-Trust Violation in 3D
Environment
- Title(参考訳): 3次元環境におけるモラルトラスト吸気性能の評価
- Authors: Maitry Ronakbhai Trivedi, Zahra Rezaei Khavas, Paul Robinette
- Abstract要約: 本研究の目的は,探索・救助シナリオにおいて,パフォーマンストラスト違反とモラルトラスト違反がもたらす影響を調査する実験を設計することである。
同じようなロボットの障害が2つあり、1つはパフォーマンストラスト違反によるもので、もう1つはモラルトラスト違反によるもので、人間の信頼に明確な影響があるかどうかを確認したい。
- 参考スコア(独自算出の注目度): 1.4502611532302039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human-Robot Interaction, in which a robot with some level of autonomy
interacts with a human to achieve a specific goal has seen much recent
progress. With the introduction of autonomous robots and the possibility of
widespread use of those in near future, it is critical that humans understand
the robot's intention while interacting with them as this will foster the
development of human-robot trust. The new conceptualization of trust which had
been introduced by researchers in recent years considers trust in Human-Robot
Interaction to be a multidimensional nature. Two main aspects which are
attributed to trust are performance trust and moral trust. We aim to design an
experiment to investigate the consequences of performance-trust violation and
moral-trust violation in a search and rescue scenario. We want to see if two
similar robot failures, one caused by a performance-trust violation and the
other by a moral-trust violation have distinct effects on human trust. In
addition to this, we plan to develop an interface that allows us to investigate
whether altering the interface's modality from grid-world scenario (2D
environment) to realistic simulation (3D environment) affects human perception
of the task and the effects of the robot's failure on human trust.
- Abstract(参考訳): ある程度の自律性を持ったロボットが、特定の目標を達成するために人間と対話する人間-ロボットインタラクションは、近年進歩している。
自律型ロボットの導入と近い将来のロボットの普及の可能性により、人間がロボットと対話しながらロボットの意図を理解することが人間ロボット信頼の発展を促進することが重要である。
近年研究者によって導入された信頼の新たな概念化は、人間とロボットのインタラクションに対する信頼を多次元的な性質と考えている。
信頼に起因する2つの主な側面は、パフォーマンス信頼とモラル信頼である。
本研究の目的は,探索救助シナリオにおけるパフォーマンストラスト違反とモラルトラスト違反の結果を調べる実験を設計することである。
我々は、パフォーマンス・トラスト違反とモラル・トラスト違反による2つの類似したロボットの失敗が、人間の信頼に異なる影響を与えているかどうかを確認したい。
これに加えて、グリッドワールドシナリオ(2D環境)から現実的なシミュレーション(3D環境)へのインタフェースのモダリティ変更が、タスクの人間の知覚とロボットの失敗が人間の信頼に与える影響を調査できるインターフェースを開発することを計画している。
関連論文リスト
- Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - ToP-ToM: Trust-aware Robot Policy with Theory of Mind [3.4850414292716327]
心の理論 (Theory of Mind, ToM) は、人間に心的状態を他者に与える能力を与える認知的アーキテクチャである。
本稿では,マルチエージェント環境下での心の理論による信頼を意識したロボット政策について検討する。
論文 参考訳(メタデータ) (2023-11-07T23:55:56Z) - "Do it my way!": Impact of Customizations on Trust perceptions in
Human-Robot Collaboration [0.8287206589886881]
補助ロボットのパーソナライゼーションは,ロボットの採用やユーザ認知と正の相関関係にある。
以上の結果から,カスタマイズ度の増加は高い信頼感と快適感に結びついていることが示唆された。
論文 参考訳(メタデータ) (2023-10-28T19:31:40Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - The dynamic nature of trust: Trust in Human-Robot Interaction revisited [0.38233569758620045]
社会支援ロボット(SAR)は、現実世界の人間を支援するロボットである。
リスクは信頼の要素をもたらすので、ロボットに対する人間の信頼を理解することは必須である。
論文 参考訳(メタデータ) (2023-03-08T19:20:11Z) - Moral-Trust Violation vs Performance-Trust Violation by a Robot: Which
Hurts More? [0.7373617024876725]
探索救助作業において,パフォーマンストラスト違反とモラルトラスト違反を別々に検討した。
1つの失敗がパフォーマンストラスト違反によるもので、もう1つの失敗がモラルトラスト違反である場合、同じ大きさのロボットの2つの失敗が人間の信頼に異なる影響を与えるかどうかを確認したい。
論文 参考訳(メタデータ) (2021-10-09T00:32:18Z) - A Review on Trust in Human-Robot Interaction [0.0]
人間とロボットのインタラクション、すなわち人間とロボットの信頼に関する新たな研究分野が生まれつつある。
本稿では,研究テーマに基づく人間ロボット信頼に関する過去の研究を概観し,その分野における選択された傾向について論じる。
論文 参考訳(メタデータ) (2021-05-20T21:50:03Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。