論文の概要: Why Robots Are Bad at Detecting Their Mistakes: Limitations of Miscommunication Detection in Human-Robot Dialogue
- arxiv url: http://arxiv.org/abs/2506.20268v1
- Date: Wed, 25 Jun 2025 09:25:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.67639
- Title: Why Robots Are Bad at Detecting Their Mistakes: Limitations of Miscommunication Detection in Human-Robot Dialogue
- Title(参考訳): ロボットが間違いを検出するのに悪い理由:人間-ロボット対話における誤通信検出の限界
- Authors: Ruben Janssens, Jens De Bock, Sofie Labat, Eva Verhelst, Veronique Hoste, Tony Belpaeme,
- Abstract要約: 本研究では,ロボット対話における誤通信検出における機械学習モデルの有効性を評価する。
会話の各ターンの後、ユーザーはエラーを認識したかどうかについてのフィードバックを提供し、モデルがロボットの誤りを正確に検出する能力の分析を可能にした。
- 参考スコア(独自算出の注目度): 0.6118899177909359
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting miscommunication in human-robot interaction is a critical function for maintaining user engagement and trust. While humans effortlessly detect communication errors in conversations through both verbal and non-verbal cues, robots face significant challenges in interpreting non-verbal feedback, despite advances in computer vision for recognizing affective expressions. This research evaluates the effectiveness of machine learning models in detecting miscommunications in robot dialogue. Using a multi-modal dataset of 240 human-robot conversations, where four distinct types of conversational failures were systematically introduced, we assess the performance of state-of-the-art computer vision models. After each conversational turn, users provided feedback on whether they perceived an error, enabling an analysis of the models' ability to accurately detect robot mistakes. Despite using state-of-the-art models, the performance barely exceeds random chance in identifying miscommunication, while on a dataset with more expressive emotional content, they successfully identified confused states. To explore the underlying cause, we asked human raters to do the same. They could also only identify around half of the induced miscommunications, similarly to our model. These results uncover a fundamental limitation in identifying robot miscommunications in dialogue: even when users perceive the induced miscommunication as such, they often do not communicate this to their robotic conversation partner. This knowledge can shape expectations of the performance of computer vision models and can help researchers to design better human-robot conversations by deliberately eliciting feedback where needed.
- Abstract(参考訳): 人間とロボットの相互作用におけるコミュニケーションの誤りを検出することは、ユーザのエンゲージメントと信頼を維持する上で重要な機能である。
人間は言葉と非言語の両方を通して会話中のコミュニケーションエラーを積極的に検出するが、ロボットは感情表現を認識するコンピュータビジョンの進歩にもかかわらず、非言語的フィードバックを解釈する上で重大な課題に直面している。
本研究では,ロボット対話における誤通信検出における機械学習モデルの有効性を評価する。
240の人間ロボット会話のマルチモーダルデータセットを用いて、4つの異なるタイプの会話障害を体系的に導入し、最先端のコンピュータビジョンモデルの性能を評価する。
会話の各ターンの後、ユーザーはエラーを認識したかどうかについてのフィードバックを提供し、モデルがロボットの誤りを正確に検出する能力の分析を可能にした。
最先端のモデルを使っているにもかかわらず、このパフォーマンスはコミュニケーションミスを特定するランダムな機会をほとんど超えず、より表現力のある感情的コンテンツを持つデータセットでは、混乱した状態を特定することに成功した。
根本原因を探るため、私たちは人間にも同じことをするように頼みました。
また、私たちのモデルと同様、誘発されたコミュニケーションの約半分しか特定できなかった。
これらの結果から,対話におけるロボットの誤コミュニケーションを識別する基本的な限界が明らかになった。
この知識はコンピュータビジョンモデルの性能に対する期待を形作ることができ、研究者がより優れた人間とロボットの会話を設計するのに役立ちます。
関連論文リスト
- Human strategies for correcting `human-robot' errors during a laundry sorting task [3.9697512504288373]
「42人の参加者によるビデオ分析では、笑い、言葉表現、おやおやおやおやおや」など、発話パターンが見つかった。」
エラーが発生した時に展開される一般的な戦略には、修正と教育、責任を取ること、フラストレーションの表示などがあった。
人類型ロボットは、このようなタスクに理想的に適していないかもしれない。
論文 参考訳(メタデータ) (2025-04-11T09:53:36Z) - Human-Robot Interaction and Perceived Irrationality: A Study of Trust Dynamics and Error Acknowledgment [0.0]
本研究では,ロボットの故障に対する人間の反応を解析し,信頼のダイナミクスとシステム設計を体系的に検討する。
我々は,人間とロボットのインタラクションを通じて,信頼がどのように進化するかを調査する4段階の調査を行った。
その結果,ロボットの誤りや限界を認識すると,ロボットシステムの信頼性は著しく向上した。
論文 参考訳(メタデータ) (2024-03-21T11:00:11Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Robots-Dont-Cry: Understanding Falsely Anthropomorphic Utterances in
Dialog Systems [64.10696852552103]
非常に人為的な反応は、ユーザーが人間と対話していると考えることを不快に、あるいは暗黙的に騙すかもしれない。
9つの異なるデータソースからサンプリングした約900の2ターンダイアログの実現可能性に関する人間の評価を収集する。
論文 参考訳(メタデータ) (2022-10-22T12:10:44Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Continuous ErrP detections during multimodal human-robot interaction [2.5199066832791535]
我々は,シミュレーションロボットが音声やジェスチャーを通じて人間とコミュニケーションする,マルチモーダルなヒューマンロボットインタラクション(HRI)シナリオを実装した。
人間のパートナーは、ロボットが選択した動作(ポインティングジェスチャー)とロボットの口頭発表(意図)が一致しているかを評価する。
脳波で明らかな、人間によるロボット行動の本質的な評価は、リアルタイムで記録され、オンラインで連続的にセグメンテーションされ、非同期に分類された。
論文 参考訳(メタデータ) (2022-07-25T15:39:32Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - AAAI SSS-22 Symposium on Closing the Assessment Loop: Communicating
Proficiency and Intent in Human-Robot Teaming [4.787322716745613]
ロボットは新しいタスクで予測能力を伝えるにはどうすればいいのか?
ロボットは人間の意図や価値観に基づいて、その習熟度基準をどう順応すべきか?
熟練度と意図に基づく相互作用を評価するための基準については合意されていない。
論文 参考訳(メタデータ) (2022-04-05T18:28:01Z) - Let's be friends! A rapport-building 3D embodied conversational agent
for the Human Support Robot [0.0]
会話中の非言語行動の微妙なミラーリング(模倣または平行共感とも呼ばれる)はラプポート構築に不可欠である。
本研究の課題は,対話者の表情と頭部の動きを反映できるECAとヒューマンサービスロボットを組み合わせることで,ユーザエクスペリエンスが向上するかどうかである。
私たちの貢献は、対話者の顔を追跡し、人間の支援ロボットと統合されたリアルタイムで顔の表情や頭の動きを反映することができる表現的ECAの複雑な統合です。
論文 参考訳(メタデータ) (2021-03-08T01:02:41Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。