論文の概要: Predicting Trust In Autonomous Vehicles: Modeling Young Adult Psychosocial Traits, Risk-Benefit Attitudes, And Driving Factors With Machine Learning
- arxiv url: http://arxiv.org/abs/2409.08980v1
- Date: Fri, 13 Sep 2024 16:52:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 15:50:08.001048
- Title: Predicting Trust In Autonomous Vehicles: Modeling Young Adult Psychosocial Traits, Risk-Benefit Attitudes, And Driving Factors With Machine Learning
- Title(参考訳): 自律走行車における信頼の予測 - 若者の心理社会的特性、リスク・ベネフィットの態度、そして機械学習による要因のモデル化
- Authors: Robert Kaufman, Emi Lee, Manas Satish Bedmutha, David Kirsh, Nadir Weibel,
- Abstract要約: 低信頼は、自律走行車(AV)の導入にとって重要な障壁である。
私たちは機械学習を使って、若い成人の信頼に寄与する最も重要な要因を理解します。
- 参考スコア(独自算出の注目度): 7.106124530294562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low trust remains a significant barrier to Autonomous Vehicle (AV) adoption. To design trustworthy AVs, we need to better understand the individual traits, attitudes, and experiences that impact people's trust judgements. We use machine learning to understand the most important factors that contribute to young adult trust based on a comprehensive set of personal factors gathered via survey (n = 1457). Factors ranged from psychosocial and cognitive attributes to driving style, experiences, and perceived AV risks and benefits. Using the explainable AI technique SHAP, we found that perceptions of AV risks and benefits, attitudes toward feasibility and usability, institutional trust, prior experience, and a person's mental model are the most important predictors. Surprisingly, psychosocial and many technology- and driving-specific factors were not strong predictors. Results highlight the importance of individual differences for designing trustworthy AVs for diverse groups and lead to key implications for future design and research.
- Abstract(参考訳): 低信頼は、自律走行車(AV)の導入にとって重要な障壁である。
信頼できるAVを設計するには、人々の信頼判断に影響を与える個々の特性、態度、経験をよりよく理解する必要があります。
我々は機械学習を用いて、調査(n=1457)を通じて収集された個人的要因の包括的セットに基づいて、若者の信頼に寄与する最も重要な要因を理解する。
要因は、心理社会的・認知的属性から、運転スタイル、経験、AVのリスクと利益に対する認識まで様々であった。
説明可能なAI技術であるSHAPを用いて、AVリスクとメリットの認識、実現可能性とユーザビリティに対する態度、制度的信頼、事前経験、個人のメンタルモデルが最も重要な予測因子であることがわかった。
驚くべきことに、精神社会的および多くの技術および運転特化要因は強力な予測因子ではなかった。
その結果,多様なグループを対象とした信頼性の高いAVの設計における個人差の重要性が強調され,今後の設計・研究への重要な影響が示唆された。
関連論文リスト
- What Did My Car Say? Impact of Autonomous Vehicle Explanation Errors and Driving Context On Comfort, Reliance, Satisfaction, and Driving Confidence [7.623776951753322]
自動走行車(AV)の説明ミスが、AVに依存する乗客の快適さにどのように影響するかを検証した。
同一の運転にもかかわらず、説明ミスによりAVの運転能力の評価は低下した。
事前の信頼と専門知識は、成果評価に肯定的な関連があった。
論文 参考訳(メタデータ) (2024-09-09T15:41:53Z) - Trusting Your AI Agent Emotionally and Cognitively: Development and Validation of a Semantic Differential Scale for AI Trust [16.140485357046707]
感情的・認知的信頼のための27項目のセマンティック・ディファレンシャル・スケールを開発し,検証した。
我々の経験的発見は、信頼の感情的側面と認知的側面が相互にどのように相互作用し、AIエージェントに対する個人の全体的な信頼を形成するかを示した。
論文 参考訳(メタデータ) (2024-07-25T18:55:33Z) - Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Decoding trust: A reinforcement learning perspective [11.04265850036115]
信頼ゲームにおける行動実験は、信頼と信頼は人間の間で普遍的であることを示した。
個人が蓄積した経験を通じて長期的なリターンを評価することで戦略を更新する強化学習のパラダイムに目を向ける。
両者のシナリオでは、個人が過去の経験と未来への回帰の両方を理解すれば、高いレベルの信頼と信頼感が生まれます。
論文 参考訳(メタデータ) (2023-09-26T01:06:29Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Will We Trust What We Don't Understand? Impact of Model Interpretability
and Outcome Feedback on Trust in AI [0.0]
我々は、AI支援予測タスクにおける、解釈可能性と結果フィードバックがAIの信頼度および人的パフォーマンスに与える影響を分析する。
解釈可能性によって信頼性が向上することはなく、結果のフィードバックははるかに大きく、信頼性が高くなりました。
論文 参考訳(メタデータ) (2021-11-16T04:35:34Z) - From the Head or the Heart? An Experimental Design on the Impact of
Explanation on Cognitive and Affective Trust [13.274877222689168]
本研究では,認知的信頼と感情的信頼の両方に対する説明の有効性について検討した。
これらの結果は、AV信頼を促進するために、AV説明を設計する上で非常に重要であると期待する。
論文 参考訳(メタデータ) (2021-10-07T13:15:34Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。