論文の概要: Impact of Different Failures on a Robot's Perceived Reliability
- arxiv url: http://arxiv.org/abs/2603.08821v1
- Date: Mon, 09 Mar 2026 18:27:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:42.122851
- Title: Impact of Different Failures on a Robot's Perceived Reliability
- Title(参考訳): ロボットの信頼性に対する異なる障害の影響
- Authors: Andrew Violette, Zhanxin Wu, Haruki Nishimura, Masha Itkina, Leticia Priebe Rocha, Mark Zolotas, Guy Hoffman, Hadas Kress-Gazit,
- Abstract要約: ロボットの認識信頼性(PR)に及ぼす各種障害の影響について検討する。
失敗直後の成功は、先行する失敗のない成功とPRに同じ影響を及ぼすことを示す。
以上の結果から,人間とロボットのインタラクションにおいて,どのロボットの障害がより高い修理を必要とするのか,そしてロボットの成功によっていかに信頼が回復できるかが明らかになった。
- 参考スコア(独自算出の注目度): 9.607560620828718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robots fail, potentially leading to a loss in the robot's perceived reliability (PR), a measure correlated with trustworthiness. In this study we examine how various kinds of failures affect the PR of the robot differently, and how this measure recovers without explicit social repair actions by the robot. In a preregistered and controlled online video study, participants were asked to predict a robot's success in a pick-and-place task. We examined manipulation failures (slips), freezing (lapses), and three types of incorrect picked objects or place goals (mistakes). Participants were shown one of 11 videos -- one of five types of failure, one of five types of failure followed by a successful execution in the same video, or a successful execution video. This was followed by two additional successful execution videos. Participants bet money either on the robot or on a coin toss after each video. People's betting patterns along with a qualitative analysis of their survey responses highlight that mistakes are less damaging to PR than slips or lapses, and some mistakes are even perceived as successes. We also see that successes immediately following a failure have the same effect on PR as successes without a preceding failure. Finally, we show that successful executions recover PR after a failure. Our findings highlight which robot failures are in higher need of repair in a human-robot interaction, and how trust could be recovered by robot successes.
- Abstract(参考訳): ロボットは失敗し、ロボットの認識された信頼性(PR)が失われる可能性がある。
本研究では,様々な障害がロボットのPRにどう影響するか,また,ロボットによる社会的修復行動を明示することなく,どのように回復するかを検討する。
事前登録され、制御されたオンラインビデオスタディでは、参加者は、ピックアップ・アンド・プレイス・タスクにおけるロボットの成功を予測するように求められた。
操作障害(スリップ),凍結(ラプス),3種類の不正な選択対象や配置目標(ミス)について検討した。
参加者は5種類の障害のうちの1つで、5種類の障害のうちの1つで、同じビデオで実行が成功し、実行が成功した。
その後、さらに2本の動画が制作された。
参加者はロボットに賭けるか、各ビデオの後にコイントスに賭ける。
調査回答の質的な分析と合わせて、人々の賭けパターンは、ミスがスリップやラプスよりもPRに害を与えていないこと、いくつかのミスが成功とさえ認識されていること、を浮き彫りにしている。
また、失敗直後の成功は、以前の失敗のない成功とPRに同じ影響を及ぼすことも分かっています。
最後に,障害発生後にPRが回復することを示す。
以上の結果から,人間とロボットのインタラクションにおいて,どのロボットの障害がより高い修理を必要とするのか,そしてロボットの成功によっていかに信頼が回復できるかが明らかになった。
関連論文リスト
- H2R-Grounder: A Paired-Data-Free Paradigm for Translating Human Interaction Videos into Physically Grounded Robot Videos [58.006918399913665]
本稿では,通常の人間と物体のインタラクションビデオからモーション一貫性のあるロボット操作ビデオに変換するビデオ間翻訳フレームワークを提案する。
私たちのアプローチでは、ロボットビデオのセットのみをトレーニングするために、ペアの人間ロボットビデオは必要とせず、システムを拡張しやすくしています。
テスト時にも同じプロセスを人間のビデオに適用し、人間の行動を模倣する高品質なロボットビデオを生成する。
論文 参考訳(メタデータ) (2025-12-10T07:59:45Z) - Guardian: Detecting Robotic Planning and Execution Errors with Vision-Language Models [53.20969621498248]
本稿では,多種多様な計画および実行障害を生成するために,軌道を手続き的に乱す自動ロボット故障合成手法を提案する。
RLBench-Fail, BridgeDataV2-Fail, UR5-Failの3つの新しい故障検出ベンチマークを構築した。
次に、詳細な障害推論と検出のためのマルチビューイメージを備えたVLMであるGuardianをトレーニングします。
論文 参考訳(メタデータ) (2025-12-01T17:57:27Z) - Training Models to Detect Successive Robot Errors from Human Reactions [11.790205457987488]
この研究は、人間の反応からロボットの失敗の段階を認識するために機械学習を使用する。
会話エラーを繰り返したロボットと対話する26人の被験者を対象にした研究では、映像データから行動特徴を抽出し、モデルを訓練した。
最良のモデルは、エラーを検出するための93.5%の精度と、連続する障害を分類するための84.1%を達成した。
論文 参考訳(メタデータ) (2025-10-10T07:25:44Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Revisiting the Adversarial Robustness-Accuracy Tradeoff in Robot
Learning [121.9708998627352]
近年の研究では、現実的なロボット学習の応用において、対人訓練の効果が公平なトレードオフを起こさないことが示されている。
本研究は,ロボット学習におけるロバストネスと精度のトレードオフを再考し,最近のロバストトレーニング手法と理論の進歩により,現実のロボット応用に適した対人トレーニングが可能かどうかを解析する。
論文 参考訳(メタデータ) (2022-04-15T08:12:15Z) - Why did I fail? A Causal-based Method to Find Explanations for Robot
Failures [0.17132914341329847]
このような失敗を説明するロボットの能力は、人間と対話して信頼と透明性を高める上で最重要である。
この技術を実現するために,本論文で論じる主な課題は,環境要因モデルを学ぶのに十分なデータを取得すること,および,そのモデルに基づく因果的説明を生成することである。
そこで本研究では,ロボットがタスク障害に対して,対照的な説明を生成できる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-04-09T14:35:43Z) - Impact of Explanation on Trust of a Novel Mobile Robot [1.603423221531441]
期待されるロボット動作の説明の存在は、自律ロボットに対する監督者の信頼に影響を及ぼした。
調査を通じて主観的および客観的に信頼度を測定した。
論文 参考訳(メタデータ) (2021-01-26T14:36:26Z) - Fault-Aware Robust Control via Adversarial Reinforcement Learning [35.16413579212691]
本稿では, 関節損傷症例に対するロボットの脆弱性を大幅に向上させる, 対向強化学習フレームワークを提案する。
我々は,本アルゴリズムを3本指ロボットと4本指ロボットで検証する。
我々のアルゴリズムはシミュレーションでのみ訓練でき、微調整なしで実際のロボットに直接展開できる。
論文 参考訳(メタデータ) (2020-11-17T16:01:06Z) - Reasons People Want Explanations After Unrecoverable Pre-Handover
Failures [3.584314460614721]
我々は,ロボットが物体を所有できないハンドオーバシナリオにおいて,人々が説明を求める理由を分析する。
その結果、参加者は要求に対して期待を定め、失敗後の非言語的手がかりよりも、ロボットが説明を提供するべきであることが示唆された。
論文 参考訳(メタデータ) (2020-10-05T18:37:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。