論文の概要: Impact of Explanation on Trust of a Novel Mobile Robot
- arxiv url: http://arxiv.org/abs/2101.10813v1
- Date: Tue, 26 Jan 2021 14:36:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 19:47:19.840289
- Title: Impact of Explanation on Trust of a Novel Mobile Robot
- Title(参考訳): 新しい移動ロボットの信頼度に及ぼす説明の影響
- Authors: Stephanie Rosenthal and Elizabeth J. Carter
- Abstract要約: 期待されるロボット動作の説明の存在は、自律ロボットに対する監督者の信頼に影響を及ぼした。
調査を通じて主観的および客観的に信頼度を測定した。
- 参考スコア(独自算出の注目度): 1.603423221531441
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: One challenge with introducing robots into novel environments is misalignment
between supervisor expectations and reality, which can greatly affect a user's
trust and continued use of the robot. We performed an experiment to test
whether the presence of an explanation of expected robot behavior affected a
supervisor's trust in an autonomous robot. We measured trust both subjectively
through surveys and objectively through a dual-task experiment design to
capture supervisors' neglect tolerance (i.e., their willingness to perform
their own task while the robot is acting autonomously). Our objective results
show that explanations can help counteract the novelty effect of seeing a new
robot perform in an unknown environment. Participants who received an
explanation of the robot's behavior were more likely to focus on their own task
at the risk of neglecting their robot supervision task during the first trials
of the robot's behavior compared to those who did not receive an explanation.
However, this effect diminished after seeing multiple trials, and participants
who received explanations were equally trusting of the robot's behavior as
those who did not receive explanations. Interestingly, participants were not
able to identify their own changes in trust through their survey responses,
demonstrating that the dual-task design measured subtler changes in a
supervisor's trust.
- Abstract(参考訳): ロボットを新しい環境に導入する際の課題の1つは、スーパーバイザーの期待と現実の相違であり、これはユーザーの信頼とロボットの継続的な使用に大きな影響を及ぼす可能性がある。
本研究では,ロボットの動作が自律ロボットに対する監督者の信頼に影響を及ぼすかどうかを検証する実験を行った。
調査を通して主観的および客観的に信頼度を測定し、監督者の無視された許容度(ロボットが自律的に行動している間に自らのタスクを遂行する意思)を捉えた。
本研究では,新しいロボットが未知の環境で機能するノベルティ効果に対して,説明が有効であることを示した。
ロボットの行動の説明を受けた参加者は、説明を受けていない被験者に比べて、ロボットの行動の最初の試行中にロボットの監督タスクを無視するリスクがあるため、自身の作業に集中する傾向にあった。
しかし、この効果は複数の試行を経て減少し、説明を受けた参加者は説明を受けなかった者と同様にロボットの振る舞いを信頼していた。
興味深いことに、参加者は調査回答を通じて自身の信頼の変化を識別できず、デュアルタスクの設計は管理者の信頼の微妙な変化を測定した。
関連論文リスト
- Human Reactions to Incorrect Answers from Robots [0.0]
この研究は、ロボットの故障に対する人間の反応によって、信頼力学とシステム設計がどう影響するかを体系的に研究した。
その結果、ロボット技術に対する参加者の信頼は、ロボットが誤りや限界を認識したときに著しく増大した。
この研究は人間とロボットの相互作用の科学を進歩させ、ロボット技術の普及を促進する。
論文 参考訳(メタデータ) (2024-03-21T11:00:11Z) - "Do it my way!": Impact of Customizations on Trust perceptions in
Human-Robot Collaboration [0.8287206589886881]
補助ロボットのパーソナライゼーションは,ロボットの採用やユーザ認知と正の相関関係にある。
以上の結果から,カスタマイズ度の増加は高い信頼感と快適感に結びついていることが示唆された。
論文 参考訳(メタデータ) (2023-10-28T19:31:40Z) - What Matters to You? Towards Visual Representation Alignment for Robot
Learning [81.30964736676103]
人のために運用する場合、ロボットはエンドユーザーの好みに合わせて報酬を最適化する必要がある。
本稿では、視覚的表現アライメント問題を解決するためのRAPL(Representation-Aligned Preference-based Learning)を提案する。
論文 参考訳(メタデータ) (2023-10-11T23:04:07Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Evaluation of Performance-Trust vs Moral-Trust Violation in 3D
Environment [1.4502611532302039]
本研究の目的は,探索・救助シナリオにおいて,パフォーマンストラスト違反とモラルトラスト違反がもたらす影響を調査する実験を設計することである。
同じようなロボットの障害が2つあり、1つはパフォーマンストラスト違反によるもので、もう1つはモラルトラスト違反によるもので、人間の信頼に明確な影響があるかどうかを確認したい。
論文 参考訳(メタデータ) (2022-06-30T17:27:09Z) - Explain yourself! Effects of Explanations in Human-Robot Interaction [10.389325878657697]
ロボット決定の説明は、ユーザーの知覚に影響を与え、信頼性を正当化し、信頼を高める。
ロボットが人間の知覚に与える影響は、まだ十分に研究されていない。
本研究は、人間とロボットの相互作用を説明する必要性と可能性を示す。
論文 参考訳(メタデータ) (2022-04-09T15:54:27Z) - From Movement Kinematics to Object Properties: Online Recognition of
Human Carefulness [112.28757246103099]
ロボットは、視覚だけで、人間のパートナーが物体を動かす際に注意を払っているかを、どのようにオンラインで推測できるかを示す。
我々は,低解像度カメラでも高い精度(最大81.3%)でこの推論を行うことができることを示した。
パートナーの行動を観察することによる動きの注意の迅速な認識により、ロボットはオブジェクトに対する行動に適応し、人間のパートナーと同じケアの度合いを示すことができる。
論文 参考訳(メタデータ) (2021-09-01T16:03:13Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Projection Mapping Implementation: Enabling Direct Externalization of
Perception Results and Action Intent to Improve Robot Explainability [62.03014078810652]
既存の非言語的手がかり、例えば目視や腕の動きに関する研究は、ロボットの内部状態を正確に示さないかもしれない。
状態をロボットの動作環境に直接投影することは、直接的で正確でより健全であるという利点がある。
論文 参考訳(メタデータ) (2020-10-05T18:16:20Z) - Supportive Actions for Manipulation in Human-Robot Coworker Teams [15.978389978586414]
我々は、将来の干渉を減らすことで相互作用を支援する行動を、支援ロボット行動と表現する。
1)タスク指向: ロボットは自身のタスク目標をさらに進めるためにのみ行動を取るし、(2)支援的: ロボットはタスク指向のタスクよりも支援的行動を好む。
シミュレーション実験では, 人体モデルを用いて, エージェント間の干渉を軽減し, 作業の完了に要する時間が長いことを明らかにした。
論文 参考訳(メタデータ) (2020-05-02T09:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。