論文の概要: Moral-Trust Violation vs Performance-Trust Violation by a Robot: Which
Hurts More?
- arxiv url: http://arxiv.org/abs/2110.04418v1
- Date: Sat, 9 Oct 2021 00:32:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-17 05:37:32.386270
- Title: Moral-Trust Violation vs Performance-Trust Violation by a Robot: Which
Hurts More?
- Title(参考訳): ロボットによるモラル・トラスト・ヴァイオレーションとパフォーマンス・トラスト・ヴァイオレーション:どちらが長くなるか?
- Authors: Zahra Rezaei Khavas, Russell Perkins, S.Reza Ahmadzadeh, Paul
Robinette
- Abstract要約: 探索救助作業において,パフォーマンストラスト違反とモラルトラスト違反を別々に検討した。
1つの失敗がパフォーマンストラスト違反によるもので、もう1つの失敗がモラルトラスト違反である場合、同じ大きさのロボットの2つの失敗が人間の信頼に異なる影響を与えるかどうかを確認したい。
- 参考スコア(独自算出の注目度): 0.7373617024876725
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years a modern conceptualization of trust in human-robot
interaction (HRI) was introduced by Ullman et al.\cite{ullman2018does}. This
new conceptualization of trust suggested that trust between humans and robots
is multidimensional, incorporating both performance aspects (i.e., similar to
the trust in human-automation interaction) and moral aspects (i.e., similar to
the trust in human-human interaction). But how does a robot violating each of
these different aspects of trust affect human trust in a robot? How does trust
in robots change when a robot commits a moral-trust violation compared to a
performance-trust violation? And whether physiological signals have the
potential to be used for assessing gain/loss of each of these two trust aspects
in a human. We aim to design an experiment to study the effects of
performance-trust violation and moral-trust violation separately in a search
and rescue task. We want to see whether two failures of a robot with equal
magnitudes would affect human trust differently if one failure is due to a
performance-trust violation and the other is a moral-trust violation.
- Abstract(参考訳): 近年、UllmanらによってHRI(Human-robot Interaction)の信頼の概念が導入された。
通称『Ullman2018does』。
信頼の新たな概念化は、人間とロボットの信頼が多次元であり、パフォーマンスの側面(人間-自律的相互作用の信頼と類似)と道徳的側面(人間-人間間の相互作用の信頼と類似)の両方を組み込んでいることを示唆した。
しかし、これらの異なる信頼のそれぞれに違反するロボットは、ロボットに対する人間の信頼にどのように影響するのか?
ロボットがモラル・トラスト違反を犯す場合、パフォーマンス・トラスト違反と比較してロボットに対する信頼はどのように変化するのか?
そして、生理的信号が、人間のこれら2つの信頼面の利得/損失を評価するために使われる可能性があるかどうか。
我々は,探索救助作業において,パフォーマンストラスト違反とモラルトラスト違反を別々に検討する実験を設計することを目的とする。
1つの失敗がパフォーマンストラスト違反によるもので、もう1つの失敗がモラルトラスト違反である場合、同じ大きさのロボットの2つの失敗が人間の信頼に異なる影響を与えるかどうかを確認したい。
関連論文リスト
- Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - ToP-ToM: Trust-aware Robot Policy with Theory of Mind [3.4850414292716327]
心の理論 (Theory of Mind, ToM) は、人間に心的状態を他者に与える能力を与える認知的アーキテクチャである。
本稿では,マルチエージェント環境下での心の理論による信頼を意識したロボット政策について検討する。
論文 参考訳(メタデータ) (2023-11-07T23:55:56Z) - "Do it my way!": Impact of Customizations on Trust perceptions in
Human-Robot Collaboration [0.8287206589886881]
補助ロボットのパーソナライゼーションは,ロボットの採用やユーザ認知と正の相関関係にある。
以上の結果から,カスタマイズ度の増加は高い信頼感と快適感に結びついていることが示唆された。
論文 参考訳(メタデータ) (2023-10-28T19:31:40Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - The dynamic nature of trust: Trust in Human-Robot Interaction revisited [0.38233569758620045]
社会支援ロボット(SAR)は、現実世界の人間を支援するロボットである。
リスクは信頼の要素をもたらすので、ロボットに対する人間の信頼を理解することは必須である。
論文 参考訳(メタデータ) (2023-03-08T19:20:11Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Evaluation of Performance-Trust vs Moral-Trust Violation in 3D
Environment [1.4502611532302039]
本研究の目的は,探索・救助シナリオにおいて,パフォーマンストラスト違反とモラルトラスト違反がもたらす影響を調査する実験を設計することである。
同じようなロボットの障害が2つあり、1つはパフォーマンストラスト違反によるもので、もう1つはモラルトラスト違反によるもので、人間の信頼に明確な影響があるかどうかを確認したい。
論文 参考訳(メタデータ) (2022-06-30T17:27:09Z) - The Road to a Successful HRI: AI, Trust and ethicS-TRAITS [65.60507052509406]
本ワークショップの目的は,学界や産業の研究者に対して,人間とロボットの関係の学際性と学際性について議論する機会を提供することである。
論文 参考訳(メタデータ) (2021-03-23T16:52:12Z) - Modeling Trust in Human-Robot Interaction: A Survey [1.4502611532302039]
ロボット協力者の適切な信頼は、人間とロボットの相互作用のパフォーマンスに影響を与える主要な要因の1つである。
HRIの信頼性校正には、まず信頼をモデル化する必要がある。
論文 参考訳(メタデータ) (2020-11-09T21:56:34Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。