論文の概要: Human Attribution of Causality to AI Across Agency, Misuse, and Misalignment
- arxiv url: http://arxiv.org/abs/2603.13236v1
- Date: Tue, 17 Feb 2026 02:48:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:42.21563
- Title: Human Attribution of Causality to AI Across Agency, Misuse, and Misalignment
- Title(参考訳): AIにおける因果関係の人間的属性 : 機関間, ミスス, ミスサライメント
- Authors: Maria Victoria Carro, David Lagnado,
- Abstract要約: 本稿では,AIシステムが有害な結果に関与する場合の因果連鎖構造における因果責任に関する民間の認識について検討する。
我々は人間実験を行い、因果性、非難、予測可能性、反実的推論の判断を調べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI-related incidents are becoming increasingly frequent and severe, ranging from safety failures to misuse by malicious actors. In such complex situations, identifying which elements caused an adverse outcome, the problem of cause selection, is a critical first step for establishing liability. This paper investigates folk perceptions of causal responsibility in causal chain structures when AI systems are involved in harmful outcomes. We conduct human experiments to examine judgments of causality, blame, foreseeability, and counterfactual reasoning. Our findings show that: (1) When AI agency was moderate (human sets the goal, AI determines the means) or high (AI sets the goal and the means), participants attributed greater causal responsibility to the AI. However, under low AI agency (where a human sets both a goal and means) participants assigned greater causal responsibility to the human despite their temporal distance from the outcome and despite both agents intended it, suggesting an effect of autonomy; (2) When we reversed roles between human and AI, participants consistently judged the human as more causal, even when both agents perform the same action; (3) The developer, despite being distant in the chain, was judged highly causal, reducing causal attributions to the human user but not to the AI; (4) Decomposing the AI into a large language model and an agentic component showed that the agentic part was judged as more causal in the chain. Overall, our research provides evidence on how people perceive the causal contribution of AI in both misuse and misalignment scenarios, and how these judgments interact with the roles of users and developers, key actors in assigning responsibility. These findings can inform the design of liability frameworks for AI-caused harms and shed light on how intuitive judgments shape social and policy debates surrounding real-world AI-related incidents.
- Abstract(参考訳): AI関連のインシデントは、安全上の障害から悪意のあるアクターによる誤用まで、ますます頻繁で厳しいものになりつつある。
このような複雑な状況では、どの要素が有害な結果を引き起こしたか、原因選択の問題を特定することが、責任を確立するための重要な第一歩である。
本稿では,AIシステムが有害な結果に関与する場合の因果連鎖構造における因果責任に関する民間の認識について検討する。
我々は人間実験を行い、因果性、非難、予測可能性、反実的推論の判断を調べる。
その結果,(1)AI機関が中道的(人間が目標を設定し,AIが手段を決定する)あるいは高い(AIが目標と手段を定める)場合,参加者はAIにより大きな因果責任を負っていることがわかった。
しかしながら、低AI機関(人間は目標と手段の両方をセットする)の下では、参加者は結果から時間的距離を置きながら人間により大きな因果責任を負わせ、両者のエージェントが自律性を示唆する; 2) 人間とAIの役割を逆転すると、参加者は、同じ行為をしても、常に人間をより因果的であると判断する;(3) 開発者は、チェーン内で距離を置いているにもかかわらず、人間に因果的帰属を減らし、AIに因果的帰属を減らし、(4) 大規模言語モデルにAIを分解し、エージェントコンポーネントは、エージェント部分がより因果的であると判断された。
全体として、私たちの研究は、人々がAIの悪用と悪用の両方のシナリオにおける因果的貢献をどのように感じているか、そしてこれらの判断が、責任を割り当てる上で重要な役割であるユーザや開発者の役割とどのように相互作用するかを示す証拠を提供する。
これらの発見は、AIに起因する損害に対する責任フレームワークの設計を通知し、現実のAI関連のインシデントを取り巻く社会的および政策的な議論を直感的な判断がいかに形作るかを明らかにします。
関連論文リスト
- Engaging with AI: How Interface Design Shapes Human-AI Collaboration in High-Stakes Decision-Making [8.948482790298645]
各種意思決定支援機構がユーザエンゲージメント,信頼,人間とAIの協調タスクパフォーマンスに与える影響について検討する。
その結果,AIの信頼性レベルやテキスト説明,パフォーマンス視覚化などのメカニズムにより,人間とAIの協調作業性能が向上することが判明した。
論文 参考訳(メタデータ) (2025-01-28T02:03:00Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - How Performance Pressure Influences AI-Assisted Decision Making [52.997197698288936]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Rolling in the deep of cognitive and AI biases [1.556153237434314]
我々は、AIが設計、開発、デプロイされる状況とは切り離せない社会技術システムとして理解する必要があると論じる。
我々は、人間の認知バイアスがAIフェアネスの概観の中核となる急進的な新しい方法論に従うことで、この問題に対処する。
我々は、人間にAIバイアスを正当化する新しいマッピングを導入し、関連する公正度と相互依存を検出する。
論文 参考訳(メタデータ) (2024-07-30T21:34:04Z) - What's my role? Modelling responsibility for AI-based safety-critical
systems [1.0549609328807565]
開発者や製造業者は、AI-SCSの有害な振る舞いに責任を負うことは困難である。
人間のオペレータは、作成に責任を負わなかったAI-SCS出力の結果に責任を負う"信頼性シンク"になる可能性がある。
本稿では,異なる責任感(ロール,モラル,法的,因果関係)と,それらがAI-SCSの安全性の文脈でどのように適用されるかを検討する。
論文 参考訳(メタデータ) (2023-12-30T13:45:36Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Human Perceptions on Moral Responsibility of AI: A Case Study in
AI-Assisted Bail Decision-Making [8.688778020322758]
我々は、AIと人間エージェントに関する道徳的責任という8つの異なる概念に対する人々の認識を測定する。
我々は、AIエージェントが故意に責任を負い、同じタスクに対して人間エージェントと同様の責任を負っていることを示す。
私たちは、AIと人間の意思決定者とアドバイザーの両方が、彼らの性質に関わらず、自分の決定を正当化することを期待している。
論文 参考訳(メタデータ) (2021-02-01T04:07:38Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。