論文の概要: Epistemology gives a Future to Complementarity in Human-AI Interactions
- arxiv url: http://arxiv.org/abs/2601.09871v1
- Date: Wed, 14 Jan 2026 21:04:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.899969
- Title: Epistemology gives a Future to Complementarity in Human-AI Interactions
- Title(参考訳): 認識学は人間とAIの相互作用に相補性をもたらす
- Authors: Andrea Ferrario, Alessandro Facchini, Juan M. Durán,
- Abstract要約: 相補性とは、AIシステムによって支えられた人間は、意思決定プロセスにおいて単独でより優れる、という主張である。
我々は,人間とAIの相互作用が信頼できる過程であることを示す証拠として,相補性の歴史的事例が機能すると主張している。
- 参考スコア(独自算出の注目度): 42.371764229953165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human-AI complementarity is the claim that a human supported by an AI system can outperform either alone in a decision-making process. Since its introduction in the human-AI interaction literature, it has gained traction by generalizing the reliance paradigm and by offering a more practical alternative to the contested construct of 'trust in AI.' Yet complementarity faces key theoretical challenges: it lacks precise theoretical anchoring, it is formalized just as a post hoc indicator of relative predictive accuracy, it remains silent about other desiderata of human-AI interactions and it abstracts away from the magnitude-cost profile of its performance gain. As a result, complementarity is difficult to obtain in empirical settings. In this work, we leverage epistemology to address these challenges by reframing complementarity within the discourse on justificatory AI. Drawing on computational reliabilism, we argue that historical instances of complementarity function as evidence that a given human-AI interaction is a reliable epistemic process for a given predictive task. Together with other reliability indicators assessing the alignment of the human-AI team with the epistemic standards and socio-technical practices, complementarity contributes to the degree of reliability of human-AI teams when generating predictions. This supports the practical reasoning of those affected by these outputs -- patients, managers, regulators, and others. In summary, our approach suggests that the role and value of complementarity lies not in providing a relative measure of predictive accuracy, but in helping calibrate decision-making to the reliability of AI-supported processes that increasingly shape everyday life.
- Abstract(参考訳): 人間とAIの相補性(Human-AI complementarity)とは、AIシステムによって支えられた人間が、意思決定プロセスにおいて単独でパフォーマンスを向上できるという主張である。
人間とAIの相互作用文学の導入以来、信頼パラダイムを一般化し、「AIにおける信頼」という議論の的となっている構造に、より実践的な代替手段を提供することによって、注目を集めてきた。
しかし、相補性には重要な理論的課題がある: 正確な理論的アンカーが欠如しており、相対的な予測精度のポストホック指標として形式化されている。
結果として、実証的な環境では相補性を得るのは難しい。
本研究では、正当化的AIに関する言説の中で相補性を緩和することにより、認識論を活用してこれらの課題に対処する。
コンピュータ・リレービリズムを基礎として, 相補性の歴史的事例は, 与えられた人間とAIの相互作用が, 与えられた予測課題に対する信頼性の高い認識過程であることを示す証拠として機能する, と論じる。
人間のAIチームの認識基準と社会技術プラクティスとの整合性を評価する他の信頼性指標とともに、補完性は、予測を生成する際の人間とAIチームの信頼性の度合いに寄与する。
これは、患者、管理者、規制当局など、これらのアウトプットに影響された人々の実践的な推論を支持する。
まとめると、我々のアプローチは、相補性の役割と価値は、予測精度の相対的な尺度を提供することではなく、日々の生活をますます形作るAI支援プロセスの信頼性に対する意思決定の調整を支援することである。
関連論文リスト
- Human-AI Collaborative Uncertainty Quantification [26.38833436936642]
我々は、AIモデルが人間の専門家の提案する予測セットをいかに洗練するかを形式化するフレームワークであるHuman AI Collaborative Uncertainty Quantificationを紹介する。
最適協調予測セットは1つのスコア関数上の直感的な2つのしきい値構造に従っており、古典的な結果を共形予測で拡張することを示す。
画像分類、回帰、テキストベースの医学的意思決定に関する実験は、協調予測セットがエージェント単独よりも一貫して優れていることを示している。
論文 参考訳(メタデータ) (2025-10-27T16:11:23Z) - When Models Know More Than They Can Explain: Quantifying Knowledge Transfer in Human-AI Collaboration [79.69935257008467]
我々は,人間とAIの知識伝達能力に関する概念的かつ実験的フレームワークである知識統合と伝達評価(KITE)を紹介する。
最初の大規模人間実験(N=118)を行い,その測定を行った。
2段階のセットアップでは、まずAIを使って問題解決戦略を思いつき、その後独立してソリューションを実装し、モデル説明が人間の理解に与える影響を分離します。
論文 参考訳(メタデータ) (2025-06-05T20:48:16Z) - To Err Is AI! Debugging as an Intervention to Facilitate Appropriate Reliance on AI Systems [11.690126756498223]
最適な人間とAIのコラボレーションのためのビジョンは、人間のAIシステムへの「適切な依存」を必要とする。
実際には、アウト・オブ・ディストリビューションデータにおける機械学習モデルの性能格差は、データセット固有のパフォーマンスフィードバックを信頼できないものにしている。
論文 参考訳(メタデータ) (2024-09-22T09:43:27Z) - Position: Towards Bidirectional Human-AI Alignment [109.57781720848669]
我々は、人間とAIの双方向的・動的関係を説明するために、研究コミュニティは「調整」を明確に定義し、批判的に反映すべきであると主張する。
このフレームワークは、AIと人間の価値を整合させる従来の取り組みを取り入れているだけでなく、人間とAIを整合させるという、重要で未解明の次元も導入しています。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Complementarity in Human-AI Collaboration: Concept, Sources, and Evidence [6.571063542099526]
我々は相補性の概念を開発し、その理論的ポテンシャルを定式化する。
情報と能力の非対称性を相補性の2つの主要な源とみなす。
我々の研究は、意思決定における人間とAIの相補性の包括的な理論的基盤を提供する。
論文 参考訳(メタデータ) (2024-03-21T07:27:17Z) - A Decision Theoretic Framework for Measuring AI Reliance [20.669176502049066]
人間はしばしば人工知能(AI)システムの助けを借りて意思決定をする。
研究者は、補完的なパフォーマンスを達成する上で重要な要素として、人間がAIに適切に依存していることを確認する。
本稿では, 統計的決定理論に基づく信頼の形式的定義を提案し, 意思決定者がAIの推奨に従う確率として信頼の概念を分離する。
論文 参考訳(メタデータ) (2024-01-27T09:13:09Z) - Towards Effective Human-AI Decision-Making: The Role of Human Learning
in Appropriate Reliance on AI Advice [3.595471754135419]
参加者100名を対象にした実験において,学習と適切な信頼の関係を示す。
本研究は,人間とAIの意思決定を効果的に設計するために,信頼度を分析し,意味を導き出すための基本的な概念を提供する。
論文 参考訳(メタデータ) (2023-10-03T14:51:53Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。