論文の概要: Anthropomorphism on Risk Perception: The Role of Trust and Domain Knowledge in Decision-Support AI
- arxiv url: http://arxiv.org/abs/2602.13625v1
- Date: Sat, 14 Feb 2026 06:30:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.239244
- Title: Anthropomorphism on Risk Perception: The Role of Trust and Domain Knowledge in Decision-Support AI
- Title(参考訳): リスク認識における人為的多態性--意思決定支援AIにおける信頼とドメイン知識の役割
- Authors: Manuele Reani, Xiangyang He, Zuolan Bao,
- Abstract要約: 擬人化設計は、会話エージェントをより親しみやすく、魅力的にするために日常的に使用される。
人類同型は2つの相補的な信頼形態を通じてリスク知覚に影響を与えることを提案する。
その結果、人間同型は認知的信頼と感情的信頼の両方を増大させることで、間接的にリスク認知を減少させることがわかった。
本稿では,人間とAIのインタラクションに対する理論的貢献と,人間型意思決定支援システムにおけるAI責任に対する信頼度を調整するための設計上の意味について論じる。
- 参考スコア(独自算出の注目度): 1.3923970950275633
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anthropomorphic design is routinely used to make conversational agents more approachable and engaging. Yet its influence on users' perceptions remains poorly understood. Drawing on psychological theories, we propose that anthropomorphism influences risk perception via two complementary forms of trust, and that domain knowledge moderates these relationships. To test our model, we conducted a large-scale online experiment (N = 1,256) on a financial decision-support system implementing different anthropomorphic designs. We found that anthropomorphism indirectly reduces risk perception by increasing both cognitive and affective trust. Domain knowledge moderates these paths: participants with low financial knowledge experience a negative indirect effect of perceived anthropomorphism on risk perception via cognitive trust, whereas those with high financial knowledge exhibit a positive direct and indirect effect. We discuss theoretical contributions to human-AI interaction and design implications for calibrating trust in anthropomorphic decision-support systems for responsible AI.
- Abstract(参考訳): 擬人化設計は、会話エージェントをより親しみやすく、魅力的にするために日常的に使用される。
しかし、ユーザーの認識への影響はいまだによく分かっていない。
心理学的理論に基づいて、人間同型は2つの相補的な信頼形態を通してリスク知覚に影響を及ぼし、ドメイン知識がこれらの関係を中和することを提案する。
提案モデルをテストするため, 人為的デザインの異なる金融意思決定支援システム上で, 大規模オンライン実験(N = 1,256)を行った。
その結果、人間同型は認知的信頼と感情的信頼の両方を増大させることで、間接的にリスク認知を減少させることがわかった。
低い金融知識を持つ人は、認知的信頼を通じて認識された人格がリスク知覚に負の間接効果を与えるのに対し、高い金融知識を持つ人は、肯定的な直接的かつ間接的な効果を示す。
本稿では,人間とAIのインタラクションに対する理論的貢献と,人間型意思決定支援システムにおける責任AIに対する信頼度を調整するための設計上の意味について論じる。
関連論文リスト
- Humanlike AI Design Increases Anthropomorphism but Yields Divergent Outcomes on Engagement and Trust Globally [5.379750053447755]
世界中の10億人以上のユーザーが、人間の特性を模倣する洗練度を高めたAIシステムと対話している。
この変化は、人類同相性、人的特徴の合成剤への寄与、および不在の信頼や感情的依存を誘発する可能性に関する緊急の議論を引き起こしている。
一般的な安全フレームワークは、AIユーザのグローバルな多様性を見越して、西洋の人口に由来する理論的な仮定に依存し続けている。
論文 参考訳(メタデータ) (2025-12-19T18:57:53Z) - Preliminary Quantitative Study on Explainability and Trust in AI Systems [0.0]
GPT-4のような大規模AIモデルは、法律、医療、金融といった重要な領域にまたがる人工知能の展開を加速している。
本研究では,定量的な実験設計を通じて,AIシステムにおける説明可能性とユーザ信頼の関係について検討する。
論文 参考訳(メタデータ) (2025-10-17T15:59:28Z) - When Models Know More Than They Can Explain: Quantifying Knowledge Transfer in Human-AI Collaboration [79.69935257008467]
我々は,人間とAIの知識伝達能力に関する概念的かつ実験的フレームワークである知識統合と伝達評価(KITE)を紹介する。
最初の大規模人間実験(N=118)を行い,その測定を行った。
2段階のセットアップでは、まずAIを使って問題解決戦略を思いつき、その後独立してソリューションを実装し、モデル説明が人間の理解に与える影響を分離します。
論文 参考訳(メタデータ) (2025-06-05T20:48:16Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Trusting Your AI Agent Emotionally and Cognitively: Development and Validation of a Semantic Differential Scale for AI Trust [16.140485357046707]
感情的・認知的信頼のための27項目のセマンティック・ディファレンシャル・スケールを開発し,検証した。
我々の経験的発見は、信頼の感情的側面と認知的側面が相互にどのように相互作用し、AIエージェントに対する個人の全体的な信頼を形成するかを示した。
論文 参考訳(メタデータ) (2024-07-25T18:55:33Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Trust Calibration as a Function of the Evolution of Uncertainty in
Knowledge Generation: A Survey [1.462008690460147]
我々は、視覚分析システムにおけるユーザの信頼が、そのライフサイクルを通してどのように進化していくかを理解するためには、情報抽出を通じて、データソースからの不確実性の伝播を考慮する必要があると論じている。
我々は、視覚分析、人間の認知理論、不確実性から文献の幅広い断面をサンプリングし、有用な視点を合成しようと試みる。
論文 参考訳(メタデータ) (2022-09-09T16:46:37Z) - Homophily and Incentive Effects in Use of Algorithms [17.55279695774825]
本稿では,2つの要因がAIによる意思決定に与える影響を評価するために,クラウドソーシング・ヴィグネット研究を提案する。
まず、ホモフィリー(homophily)を検証します。
次に、インセンティブについて考えます -- ハイブリッドな意思決定環境に(既知の)コスト構造を組み込むには、どうすればよいのでしょう?
論文 参考訳(メタデータ) (2022-05-19T17:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。