論文の概要: Not All Trust is the Same: Effects of Decision Workflow and Explanations in Human-AI Decision Making
- arxiv url: http://arxiv.org/abs/2603.05229v1
- Date: Thu, 05 Mar 2026 14:42:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.274347
- Title: Not All Trust is the Same: Effects of Decision Workflow and Explanations in Human-AI Decision Making
- Title(参考訳): すべての信頼が同じであるとは限らない:人間-AI意思決定における意思決定ワークフローと説明の効果
- Authors: Laura Spillner, Rachel Ringe, Robert Porzel, Rainer Malaka,
- Abstract要約: AI支援による意思決定における中心的な課題は、保証された、明確な信頼を達成することである。
以前の研究では、意思決定ワークフローの設計が異なる。
その結果、2段階のセットアップが過度に信頼性を低下させるという証拠は得られなかった。
- 参考スコア(独自算出の注目度): 9.879735145566128
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A central challenge in AI-assisted decision making is achieving warranted, well-calibrated trust. Both overtrust (accepting incorrect AI recommendations) and undertrust (rejecting correct advice) should be prevented. Prior studies differ in the design of the decision workflow - whether users see the AI suggestion immediately (1-step setup) or have to submit a first decision beforehand (2-step setup) -, and in how trust is measured - through self-reports or as behavioral trust, that is, reliance. We examined the effects and interactions of (a) the type of decision workflow, (b) the presence of explanations, and (c) users' domain knowledge and prior AI experience. We compared reported trust, reliance (agreement rate and switch rate), and overreliance. Results showed no evidence that a 2-step setup reduces overreliance. The decision workflow also did not directly affect self-reported trust, but there was a crossover interaction effect with domain knowledge and explanations, suggesting that the effects of explanations alone may not generalize across workflow setups. Finally, our findings confirm that reported trust and reliance behavior are distinct constructs that should be evaluated separately in AI-assisted decision making.
- Abstract(参考訳): AI支援による意思決定における中心的な課題は、保証された、明確な信頼を達成することである。
オーバートラスト(不正なAIレコメンデーションを受け入れる)とアンダートラスト(正しいアドバイスを拒絶)の両方を防止すべきである。
事前の研究は、AI提案をすぐに(1段階のセットアップ)、あるいは事前に(2段階のセットアップ)の最初の決定を提出しなければならないかどうか、そして、自己報告や行動信頼を通じて、どのように信頼が測定されるか、など、決定ワークフローの設計において異なる。
我々はその効果と相互作用について検討した。
a) 意思決定のワークフローの種類。
b)説明の存在,及び
(c)ユーザのドメイン知識と事前AI経験。
報告された信頼度、信頼度(アグリメントレートとスイッチレート)、信頼度を比較した。
その結果、2段階のセットアップが過度に信頼性を低下させるという証拠は得られなかった。
意思決定ワークフローは、自己報告された信頼にも直接影響しないが、ドメインの知識や説明とのクロスオーバーインタラクション効果があり、説明の効果だけではワークフローのセットアップ全体にわたって一般化しない可能性があることを示唆している。
最後に,報告された信頼行動と信頼行動は,AIによる意思決定において別々に評価すべき構造であることを確認した。
関連論文リスト
- 2-Step Agent: A Framework for the Interaction of a Decision Maker with AI Decision Support [0.254890465057467]
本稿では,AIによる意思決定の効果をモデル化する汎用計算フレームワークである2-Step Agentを紹介する。
我々の結果は、AIによる意思決定サポートの潜在的な落とし穴を明らかにし、詳細なモデルドキュメンテーションと適切なユーザートレーニングの必要性を強調します。
論文 参考訳(メタデータ) (2026-02-25T13:11:12Z) - Critical or Compliant? The Double-Edged Sword of Reasoning in Chain-of-Thought Explanations [60.27156500679296]
系統的な推論連鎖の摂動とデリバリートーンの操作による道徳シナリオにおけるCoT(Chain-of-Thought)の説明の役割について検討した。
1) 利用者は, 根拠に欠陥がある場合でも, 信頼感を保ち, 結果合意を信頼する傾向がみられた。
これらの結果は、CoTの説明が同時に明確化と誤解を招き、視覚的信頼よりも精査と批判的思考を奨励する説明を提供するNLPシステムの必要性を強調している。
論文 参考訳(メタデータ) (2025-11-15T02:38:49Z) - Human-Alignment Influences the Utility of AI-assisted Decision Making [16.732483972136418]
我々は,アライメントの程度が,AIによる意思決定の有用性に与える影響について検討する。
以上の結果から,AIによる意思決定におけるアライメントの程度と有効性との関連が示唆された。
論文 参考訳(メタデータ) (2025-01-23T19:01:47Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Appropriate Reliance on AI Advice: Conceptualization and the Effect of
Explanations [0.0]
我々は、AIアドバイスの説明を提供することの効果を分析する研究モデルを開発する。
200人の参加者による実験で、これらの説明が適切な信頼度(AoR)にどのように影響するかを実証した。
我々の研究は、依存行動の分析とAIアドバイザの目的設計のための基本的な概念に貢献する。
論文 参考訳(メタデータ) (2023-02-04T15:48:24Z) - Trust and Reliance in XAI -- Distinguishing Between Attitudinal and
Behavioral Measures [0.0]
研究者たちは、AIは信頼を高めるためにより透明でなければならないと主張しており、透明性はXAIの主要な目標の1つだ。
この話題に関する実証研究は 透明性が信頼に与える影響に関して 決定的ではありません
我々は、行動的(客観的)信頼度尺度と個人的(客観的)信頼度尺度を明確に区別することを提唱する。
論文 参考訳(メタデータ) (2022-03-23T10:39:39Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。