論文の概要: When Robots Say No: Temporal Trust Recovery Through Explanation
- arxiv url: http://arxiv.org/abs/2510.21716v1
- Date: Mon, 15 Sep 2025 14:29:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.105804
- Title: When Robots Say No: Temporal Trust Recovery Through Explanation
- Title(参考訳): ロボットは、説明を通して時間的信頼を回復する
- Authors: Nicola Webb, Zijun Huang, Sanja Milivojevic, Chris Baber, Edmund R. Hunt,
- Abstract要約: 人間ロボットチーム(HRT)に統合されたロボットは、有害な建物を探すのに効果的に働く。
分散状況認識では、ロボットが要求に応じて即座に優先順位を変更することを辞退すると、ユーザーはロボットの完全性を疑う傾向にある。
本研究は,ハイテイクな人間ロボットチーム構成シナリオにおけるオンミッション信頼度に関するコンピュータによる研究結果である。
- 参考スコア(独自算出の注目度): 2.337620902636256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mobile robots with some degree of autonomy could deliver significant advantages in high-risk missions such as search and rescue and firefighting. Integrated into a human-robot team (HRT), robots could work effectively to help search hazardous buildings. User trust is a key enabler for HRT, but during a mission, trust can be damaged. With distributed situation awareness, such as when team members are working in different locations, users may be inclined to doubt a robot's integrity if it declines to immediately change its priorities on request. In this paper, we present the results of a computer-based study investigating on-mission trust dynamics in a high-stakes human-robot teaming scenario. Participants (n = 38) played an interactive firefighting game alongside a robot teammate, where a trust violation occurs owing to the robot declining to help the user immediately. We find that when the robot provides an explanation for declining to help, trust better recovers over time, albeit following an initial drop that is comparable to a baseline condition where an explanation for refusal is not provided. Our findings indicate that trust can vary significantly during a mission, notably when robots do not immediately respond to user requests, but that this trust violation can be largely ameliorated over time if adequate explanation is provided.
- Abstract(参考訳): ある程度の自律性を持つ移動ロボットは、捜索や救助、消防といったリスクの高い任務において大きなメリットをもたらす可能性がある。
人間ロボットチーム(HRT)に統合されたロボットは、有害な建物を探すのに効果的に働く。
ユーザ信頼は、HRTの重要なイネーブラーであるが、ミッション中に信頼が損なわれる可能性がある。
チームメンバーが異なる場所で作業しているような分散状況の認識では、要求の優先順位を即座に変更することを辞退した場合、ユーザーはロボットの完全性を疑う傾向にある。
本稿では,ハイテイクな人間ロボットチーム構成シナリオにおけるオンミッション信頼度に関するコンピュータによる研究結果について述べる。
参加者(n = 38)は、ロボットチームメイトと一緒にインタラクティブなファイアファイアファイティングゲームを行い、ロボットが直ちにユーザを助けるために減少するため、信頼違反が発生する。
ロボットが助けを減らそうとする説明を提供すると、信頼は時間の経過とともに回復するが、拒絶の説明が提供されないベースライン条件に匹敵する初期落下の後、より良く回復する。
以上の結果から,ロボットが直ちにユーザ要求に応答しない場合,特にミッションにおいて,信頼度は著しく変化するが,十分な説明が得られれば,この信頼度違反は時間とともに大幅に改善される可能性が示唆された。
関連論文リスト
- Generalizable Humanoid Manipulation with 3D Diffusion Policies [66.78220965526732]
我々は、ヒューマノイドロボットによる自律的な操作の問題を解決するために、現実世界のロボットシステムを構築している。
本システムは主に,人型ロボットデータを取得するための全身ロボット遠隔操作システムと,高さ調整可能なカートと3D LiDARセンサを備えた25-DoFヒューマノイドロボットプラットフォームの統合である。
1つのシーンで収集されたデータのみを使用し、オンボードコンピューティングのみで、フルサイズのヒューマノイドロボットが様々な現実世界のシナリオで自律的にスキルを発揮できることが示される。
論文 参考訳(メタデータ) (2024-10-14T17:59:00Z) - Human-Robot Interaction and Perceived Irrationality: A Study of Trust Dynamics and Error Acknowledgment [0.0]
本研究では,ロボットの故障に対する人間の反応を解析し,信頼のダイナミクスとシステム設計を体系的に検討する。
我々は,人間とロボットのインタラクションを通じて,信頼がどのように進化するかを調査する4段階の調査を行った。
その結果,ロボットの誤りや限界を認識すると,ロボットシステムの信頼性は著しく向上した。
論文 参考訳(メタデータ) (2024-03-21T11:00:11Z) - Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - The dynamic nature of trust: Trust in Human-Robot Interaction revisited [0.38233569758620045]
社会支援ロボット(SAR)は、現実世界の人間を支援するロボットである。
リスクは信頼の要素をもたらすので、ロボットに対する人間の信頼を理解することは必須である。
論文 参考訳(メタデータ) (2023-03-08T19:20:11Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Fleet-DAgger: Interactive Robot Fleet Learning with Scalable Human
Supervision [72.4735163268491]
ロボットの商業的および産業的な展開は、実行中にリモートの人間のテレオペレーターにフォールバックすることが多い。
我々は対話型フリートラーニング(Interactive Fleet Learning, IFL)の設定を定式化し、複数のロボットが対話型クエリを行い、複数の人間スーパーバイザーから学習する。
IFLアルゴリズムのファミリーであるFleet-DAggerを提案し、新しいFleet-DAggerアルゴリズムをシミュレーションで4つのベースラインと比較する。
論文 参考訳(メタデータ) (2022-06-29T01:23:57Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Impact of Explanation on Trust of a Novel Mobile Robot [1.603423221531441]
期待されるロボット動作の説明の存在は、自律ロボットに対する監督者の信頼に影響を及ぼした。
調査を通じて主観的および客観的に信頼度を測定した。
論文 参考訳(メタデータ) (2021-01-26T14:36:26Z) - Fault-Aware Robust Control via Adversarial Reinforcement Learning [35.16413579212691]
本稿では, 関節損傷症例に対するロボットの脆弱性を大幅に向上させる, 対向強化学習フレームワークを提案する。
我々は,本アルゴリズムを3本指ロボットと4本指ロボットで検証する。
我々のアルゴリズムはシミュレーションでのみ訓練でき、微調整なしで実際のロボットに直接展開できる。
論文 参考訳(メタデータ) (2020-11-17T16:01:06Z) - Supportive Actions for Manipulation in Human-Robot Coworker Teams [15.978389978586414]
我々は、将来の干渉を減らすことで相互作用を支援する行動を、支援ロボット行動と表現する。
1)タスク指向: ロボットは自身のタスク目標をさらに進めるためにのみ行動を取るし、(2)支援的: ロボットはタスク指向のタスクよりも支援的行動を好む。
シミュレーション実験では, 人体モデルを用いて, エージェント間の干渉を軽減し, 作業の完了に要する時間が長いことを明らかにした。
論文 参考訳(メタデータ) (2020-05-02T09:37:10Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。