論文の概要: Why Did the Robot Cross the Road? A User Study of Explanation in
Human-Robot Interaction
- arxiv url: http://arxiv.org/abs/2012.00078v1
- Date: Mon, 30 Nov 2020 20:02:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 19:16:43.172093
- Title: Why Did the Robot Cross the Road? A User Study of Explanation in
Human-Robot Interaction
- Title(参考訳): なぜロボットは道路を渡ったのか?
人間-ロボットインタラクションにおける説明のユーザスタディ
- Authors: Zachary Taschdjian
- Abstract要約: この研究は、社会科学の文脈で説明可能なAI XAIを定め、社会科学から情報を得ると、HRIの説明が改善されることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work documents a pilot user study evaluating the effectiveness of
contrastive, causal and example explanations in supporting human understanding
of AI in a hypothetical commonplace human robot interaction HRI scenario. In
doing so, this work situates explainable AI XAI in the context of the social
sciences and suggests that HRI explanations are improved when informed by the
social sciences.
- Abstract(参考訳): 本研究は,人間ロボットインタラクションhriシナリオにおけるaiの人間理解支援における対照的,因果的,事例的説明の有効性を評価するパイロットユーザ研究である。
この研究は、社会科学の文脈で説明可能なAI XAIを定め、社会科学から情報を得ると、HRIの説明が改善されることを示唆している。
関連論文リスト
- Analysing Explanation-Related Interactions in Collaborative Perception-Cognition-Communication-Action [1.33828830691279]
我々は、シミュレーションされた緊急対応タスクを完了させるために協力する人間同士のコミュニケーションを分析し、分類する。
ほとんどの説明関連メッセージは、決定や行動の明確化を求めている。
論文 参考訳(メタデータ) (2024-11-19T13:07:04Z) - Let people fail! Exploring the influence of explainable virtual and robotic agents in learning-by-doing tasks [45.23431596135002]
本研究は,古典的対パートナー意識による説明が学習作業中の人間の行動とパフォーマンスに与える影響を比較検討した。
その結果, パートナー意識による説明は, 関係する人工エージェントの種類によって, 参加者に異なる影響を及ぼした。
論文 参考訳(メタデータ) (2024-11-15T13:22:04Z) - Don't be Fooled: The Misinformation Effect of Explanations in Human-AI Collaboration [11.824688232910193]
我々は,人間がXAIに支えられたAIによる意思決定について研究している。
その結果,誤った説明が正しいAIアドバイスに付随する場合に誤報が生じることがわかった。
この効果は、人間が欠陥のある推論戦略を推測し、タスクの実行を妨げ、手続き的知識の障害を示す。
論文 参考訳(メタデータ) (2024-09-19T14:34:20Z) - The Road to a Successful HRI: AI, Trust and ethicS-TRAITS [64.77385130665128]
このワークショップの目的は、人間とロボットの効果的で長期にわたるコラボレーションに向けた過去および現在進行中の研究についての洞察の交換を促進することである。
特に、自律的およびプロアクティブなインタラクションを実装するために必要なAI技術に焦点を当てています。
論文 参考訳(メタデータ) (2022-06-07T11:12:45Z) - Causal Robot Communication Inspired by Observational Learning Insights [4.545201807506083]
本稿では,ロボットの意図的コミュニケーションにおける行動学習的洞察の関連性について論じる。
本稿では,ロボットが行動系列における因果的動作を選択的に説明することにより,その意図を効率的に伝達するための,これらの知見の最初の応用について述べる。
論文 参考訳(メタデータ) (2022-03-17T06:43:10Z) - Human-Robot Collaboration and Machine Learning: A Systematic Review of
Recent Research [69.48907856390834]
人間ロボットコラボレーション(Human-robot collaboration、HRC)とは、人間とロボットの相互作用を探索する手法である。
本稿では,HRCの文脈における機械学習技術の利用に関する詳細な文献レビューを提案する。
論文 参考訳(メタデータ) (2021-10-14T15:14:33Z) - The Road to a Successful HRI: AI, Trust and ethicS-TRAITS [65.60507052509406]
本ワークショップの目的は,学界や産業の研究者に対して,人間とロボットの関係の学際性と学際性について議論する機会を提供することである。
論文 参考訳(メタデータ) (2021-03-23T16:52:12Z) - Integrating Intrinsic and Extrinsic Explainability: The Relevance of
Understanding Neural Networks for Human-Robot Interaction [19.844084722919764]
説明可能な人工知能(XAI)は、インテリジェントで自律的なシステムの信頼と受容を促進するのに役立つ。
NICOは、オープンソースのヒューマノイドロボットプラットフォームであり、ロボット自身による本質的な説明と環境によって提供される外生的な説明の相互作用によって、効率的なロボット動作を実現する方法について紹介されている。
論文 参考訳(メタデータ) (2020-10-09T14:28:48Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。