論文の概要: From the Head or the Heart? An Experimental Design on the Impact of
Explanation on Cognitive and Affective Trust
- arxiv url: http://arxiv.org/abs/2110.03433v1
- Date: Thu, 7 Oct 2021 13:15:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-09 00:17:25.513241
- Title: From the Head or the Heart? An Experimental Design on the Impact of
Explanation on Cognitive and Affective Trust
- Title(参考訳): 頭から? それとも心臓から?
説明が認知的・感情的信頼に与える影響に関する実験設計
- Authors: Qiaoning Zhang, X. Jessie Yang, Lionel P. Robert Jr
- Abstract要約: 本研究では,認知的信頼と感情的信頼の両方に対する説明の有効性について検討した。
これらの結果は、AV信頼を促進するために、AV説明を設計する上で非常に重要であると期待する。
- 参考スコア(独自算出の注目度): 13.274877222689168
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated vehicles (AVs) are social robots that can potentially benefit our
society. According to the existing literature, AV explanations can promote
passengers' trust by reducing the uncertainty associated with the AV's
reasoning and actions. However, the literature on AV explanations and trust has
failed to consider how the type of trust
- cognitive versus affective - might alter this relationship. Yet, the
existing literature has shown that the implications associated with trust vary
widely depending on whether it is cognitive or affective. To address this
shortcoming and better understand the impacts of explanations on trust in AVs,
we designed a study to investigate the effectiveness of explanations on both
cognitive and affective trust. We expect these results to be of great
significance in designing AV explanations to promote AV trust.
- Abstract(参考訳): 自動走行車(AV)は社会に利益をもたらす可能性のある社会ロボットである。
既存の文献によれば、AVの説明は、AVの推論や行動に関連する不確実性を減らすことで、乗客の信頼を促進することができる。
しかし、avの説明と信頼に関する文献では、信頼のタイプ(認知と感情)がこの関係をどのように変えるのかを考慮できていない。
しかし、既存の文献では、信頼に関連する影響は認知的か感情的かによって大きく異なることが示されている。
この欠点に対処し、AVの信頼に対する説明の影響をよりよく理解するために、認知的信頼と感情的信頼の両方に対する説明の有効性を調査する研究を設計した。
これらの結果は、AV信頼を促進するためにAV説明を設計する上で非常に重要であると期待する。
関連論文リスト
- A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Explaining Model Confidence Using Counterfactuals [4.385390451313721]
人間とAIのインタラクションにおける信頼スコアの表示は、人間とAIシステムの信頼構築に役立つことが示されている。
既存の研究のほとんどは、信頼スコアのみをコミュニケーションの形式として用いている。
信頼性スコアの反実的な説明は、参加者が機械学習モデルの予測をよりよく理解し、より信頼するのに役立つことを示す。
論文 参考訳(メタデータ) (2023-03-10T06:22:13Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trust and Reliance in XAI -- Distinguishing Between Attitudinal and
Behavioral Measures [0.0]
研究者たちは、AIは信頼を高めるためにより透明でなければならないと主張しており、透明性はXAIの主要な目標の1つだ。
この話題に関する実証研究は 透明性が信頼に与える影響に関して 決定的ではありません
我々は、行動的(客観的)信頼度尺度と個人的(客観的)信頼度尺度を明確に区別することを提唱する。
論文 参考訳(メタデータ) (2022-03-23T10:39:39Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z) - A Study on the Manifestation of Trust in Speech [12.057694908317991]
音声に基づいて仮想アシスタント(VA)でユーザーが持っている信頼レベルを自動的に検出する可能性を検討します。
VAのスキルに対する信頼度が異なるよう誘導された被験者から発話データを収集するための新しいプロトコルを開発した。
我々は、このプロトコルが効果的にエージェントのスキルを信頼または不信の望ましい精神状態に被験者に影響を与えることに成功したという明確な証拠を示しています。
論文 参考訳(メタデータ) (2021-02-09T13:08:54Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - A Study on Multimodal and Interactive Explanations for Visual Question
Answering [3.086885687016963]
視覚質問応答(VQA)タスクの設定において,マルチモーダルな説明を評価する。
結果は,VQAシステムの解答が不正確である場合に,人間の予測精度の向上に役立つことを示唆している。
本稿では,注意マップの編集による介入による因果的注意効果評価手法であるアクティブアテンションを導入する。
論文 参考訳(メタデータ) (2020-03-01T07:54:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。