論文の概要: From the Head or the Heart? An Experimental Design on the Impact of
Explanation on Cognitive and Affective Trust
- arxiv url: http://arxiv.org/abs/2110.03433v1
- Date: Thu, 7 Oct 2021 13:15:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-09 00:17:25.513241
- Title: From the Head or the Heart? An Experimental Design on the Impact of
Explanation on Cognitive and Affective Trust
- Title(参考訳): 頭から? それとも心臓から?
説明が認知的・感情的信頼に与える影響に関する実験設計
- Authors: Qiaoning Zhang, X. Jessie Yang, Lionel P. Robert Jr
- Abstract要約: 本研究では,認知的信頼と感情的信頼の両方に対する説明の有効性について検討した。
これらの結果は、AV信頼を促進するために、AV説明を設計する上で非常に重要であると期待する。
- 参考スコア(独自算出の注目度): 13.274877222689168
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated vehicles (AVs) are social robots that can potentially benefit our
society. According to the existing literature, AV explanations can promote
passengers' trust by reducing the uncertainty associated with the AV's
reasoning and actions. However, the literature on AV explanations and trust has
failed to consider how the type of trust
- cognitive versus affective - might alter this relationship. Yet, the
existing literature has shown that the implications associated with trust vary
widely depending on whether it is cognitive or affective. To address this
shortcoming and better understand the impacts of explanations on trust in AVs,
we designed a study to investigate the effectiveness of explanations on both
cognitive and affective trust. We expect these results to be of great
significance in designing AV explanations to promote AV trust.
- Abstract(参考訳): 自動走行車(AV)は社会に利益をもたらす可能性のある社会ロボットである。
既存の文献によれば、AVの説明は、AVの推論や行動に関連する不確実性を減らすことで、乗客の信頼を促進することができる。
しかし、avの説明と信頼に関する文献では、信頼のタイプ(認知と感情)がこの関係をどのように変えるのかを考慮できていない。
しかし、既存の文献では、信頼に関連する影響は認知的か感情的かによって大きく異なることが示されている。
この欠点に対処し、AVの信頼に対する説明の影響をよりよく理解するために、認知的信頼と感情的信頼の両方に対する説明の有効性を調査する研究を設計した。
これらの結果は、AV信頼を促進するためにAV説明を設計する上で非常に重要であると期待する。
関連論文リスト
- Predicting Trust In Autonomous Vehicles: Modeling Young Adult Psychosocial Traits, Risk-Benefit Attitudes, And Driving Factors With Machine Learning [7.106124530294562]
低信頼は、自律走行車(AV)の導入にとって重要な障壁である。
私たちは機械学習を使って、若い成人の信頼に寄与する最も重要な要因を理解します。
論文 参考訳(メタデータ) (2024-09-13T16:52:24Z) - What Did My Car Say? Impact of Autonomous Vehicle Explanation Errors and Driving Context On Comfort, Reliance, Satisfaction, and Driving Confidence [7.623776951753322]
自動走行車(AV)の説明ミスが、AVに依存する乗客の快適さにどのように影響するかを検証した。
同一の運転にもかかわらず、説明ミスによりAVの運転能力の評価は低下した。
事前の信頼と専門知識は、成果評価に肯定的な関連があった。
論文 参考訳(メタデータ) (2024-09-09T15:41:53Z) - Trusting Your AI Agent Emotionally and Cognitively: Development and Validation of a Semantic Differential Scale for AI Trust [16.140485357046707]
感情的・認知的信頼のための27項目のセマンティック・ディファレンシャル・スケールを開発し,検証した。
我々の経験的発見は、信頼の感情的側面と認知的側面が相互にどのように相互作用し、AIエージェントに対する個人の全体的な信頼を形成するかを示した。
論文 参考訳(メタデータ) (2024-07-25T18:55:33Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z) - A Study on the Manifestation of Trust in Speech [12.057694908317991]
音声に基づいて仮想アシスタント(VA)でユーザーが持っている信頼レベルを自動的に検出する可能性を検討します。
VAのスキルに対する信頼度が異なるよう誘導された被験者から発話データを収集するための新しいプロトコルを開発した。
我々は、このプロトコルが効果的にエージェントのスキルを信頼または不信の望ましい精神状態に被験者に影響を与えることに成功したという明確な証拠を示しています。
論文 参考訳(メタデータ) (2021-02-09T13:08:54Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。