論文の概要: Human Cognitive Biases in Explanation-Based Interaction: The Case of Within and Between Session Order Effect
- arxiv url: http://arxiv.org/abs/2512.04764v1
- Date: Thu, 04 Dec 2025 12:59:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.173405
- Title: Human Cognitive Biases in Explanation-Based Interaction: The Case of Within and Between Session Order Effect
- Title(参考訳): 説明に基づく相互作用における人間の認知的バイアス--セッション順序効果の内と間を事例として
- Authors: Dario Pesenti, Alessandro Bogani, Katya Tentori, Stefano Teso,
- Abstract要約: Explanatory Interactive Learning (XIL)は、ユーザーが説明と対話することでAIモデルをカスタマイズし、修正できるように設計された強力な対話型学習フレームワークである。
近年の研究では、説明的相互作用が、提示された項目の順序がユーザの信頼に影響を及ぼし、批判的にフィードバックの質に影響を及ぼす、よく知られた認知バイアスである注文効果を誘発するのではないかという懸念が提起されている。
命令効果と説明的相互作用の相互作用を明らかにするために,一般的なXILタスクを模倣する2つの大規模ユーザスタディを実行した。
- 参考スコア(独自算出の注目度): 46.80756527630539
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explanatory Interactive Learning (XIL) is a powerful interactive learning framework designed to enable users to customize and correct AI models by interacting with their explanations. In a nutshell, XIL algorithms select a number of items on which an AI model made a decision (e.g. images and their tags) and present them to users, together with corresponding explanations (e.g. image regions that drive the model's decision). Then, users supply corrective feedback for the explanations, which the algorithm uses to improve the model. Despite showing promise in debugging tasks, recent studies have raised concerns that explanatory interaction may trigger order effects, a well-known cognitive bias in which the sequence of presented items influences users' trust and, critically, the quality of their feedback. We argue that these studies are not entirely conclusive, as the experimental designs and tasks employed differ substantially from common XIL use cases, complicating interpretation. To clarify the interplay between order effects and explanatory interaction, we ran two larger-scale user studies (n = 713 total) designed to mimic common XIL tasks. Specifically, we assessed order effects both within and between debugging sessions by manipulating the order in which correct and wrong explanations are presented to participants. Order effects had a limited, through significant impact on users' agreement with the model (i.e., a behavioral measure of their trust), and only when examined withing debugging sessions, not between them. The quality of users' feedback was generally satisfactory, with order effects exerting only a small and inconsistent influence in both experiments. Overall, our findings suggest that order effects do not pose a significant issue for the successful employment of XIL approaches. More broadly, our work contributes to the ongoing efforts for understanding human factors in AI.
- Abstract(参考訳): Explanatory Interactive Learning (XIL)は、ユーザーが説明と対話することでAIモデルをカスタマイズし、修正できるように設計された強力な対話型学習フレームワークである。
簡単に言うと、XILアルゴリズムはAIモデルが決定を下した項目(例:画像とそのタグ)を選択し、それに対応する説明(例:モデルの判断を駆動する画像領域)とともにユーザに提示する。
そして、ユーザーは、モデルを改善するためにアルゴリズムが使用している説明に対する修正的なフィードバックを提供する。
デバッグタスクの有望性を示す一方で、最近の研究は、説明的相互作用が注文効果を誘発するのではないかという懸念を提起している。
これらの研究は、実験的な設計とタスクが一般的なXILのユースケースと大きく異なり、解釈が複雑になるため、完全には決定的ではない、と我々は主張する。
命令効果と説明的相互作用の相互作用を明らかにするために,一般的なXILタスクを模倣する2つの大規模ユーザスタディ(n = 713 トータル)を実行した。
具体的には、参加者に正しい説明と間違った説明を提示する順序を操作することにより、デバッグセッション内とデバッグセッション間の両方の順序効果を評価した。
オーダーエフェクトは,モデルとの合意(信頼の行動尺度)に大きな影響を与え,デバッグセッションを検査する場合のみ,その間ではなく,限定的であった。
ユーザからのフィードバックの質は概して満足でき、順序効果は両方の実験に小さな、一貫性のない影響しか与えない。
以上の結果から,XIL導入が成功するには順序効果が重要な問題にならないことが示唆された。
より広範に、私たちの研究は、AIにおける人間の要因を理解するための継続的な努力に貢献しています。
関連論文リスト
- Modulating Language Model Experiences through Frictions [56.17593192325438]
言語モデルの過度な消費は、短期において未確認エラーを伝播し、長期的な批判的思考のために人間の能力を損なうリスクを出力する。
行動科学の介入にインスパイアされた言語モデル体験のための選択的摩擦を提案し,誤用を抑える。
論文 参考訳(メタデータ) (2024-06-24T16:31:11Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Our Model Achieves Excellent Performance on MovieLens: What Does it Mean? [43.3971105361606]
我々は、MovieLensデータセットの綿密な分析を行う。
MovieLensプラットフォームと対話する場合、異なる段階でのユーザインタラクションには大きな違いがある。
そこで本研究では,MovieLensシステムで使用されるインタラクション生成機構と,一般的な実世界のレコメンデーションシナリオとの相違について論じる。
論文 参考訳(メタデータ) (2023-07-19T13:44:32Z) - Homophily and Incentive Effects in Use of Algorithms [17.55279695774825]
本稿では,2つの要因がAIによる意思決定に与える影響を評価するために,クラウドソーシング・ヴィグネット研究を提案する。
まず、ホモフィリー(homophily)を検証します。
次に、インセンティブについて考えます -- ハイブリッドな意思決定環境に(既知の)コスト構造を組み込むには、どうすればよいのでしょう?
論文 参考訳(メタデータ) (2022-05-19T17:11:04Z) - Information Interaction Profile of Choice Adoption [2.9972063833424216]
相互作用するエンティティを分離する時間的距離に応じて、エンティティの相互作用ネットワークとその進化を推定する効率的な方法を紹介します。
相互作用プロファイルは、相互作用プロセスのメカニズムを特徴付けることができます。
ユーザに対する露出の組み合わせの効果は、各露出の独立した効果の総和以上のものであることを示す。
論文 参考訳(メタデータ) (2021-04-28T10:42:25Z) - Explaining Black Box Predictions and Unveiling Data Artifacts through
Influence Functions [55.660255727031725]
影響関数は、影響力のあるトレーニング例を特定することによって、モデルの判断を説明する。
本稿では,代表課題における影響関数と共通単語順応法の比較を行う。
我々は,学習データ中の成果物を明らかにすることができる影響関数に基づく新しい尺度を開発した。
論文 参考訳(メタデータ) (2020-05-14T00:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。