論文の概要: DeCoDe: Defer-and-Complement Decision-Making via Decoupled Concept Bottleneck Models
- arxiv url: http://arxiv.org/abs/2505.19220v1
- Date: Sun, 25 May 2025 16:34:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.987901
- Title: DeCoDe: Defer-and-Complement Decision-Making via Decoupled Concept Bottleneck Models
- Title(参考訳): DeCoDe: Decoupled Concept Bottleneck Modelによるデファー・アンド・コンプリメント意思決定
- Authors: Chengbo He, Bochao Zou, Junliang Xing, Jiansheng Chen, Yuanchun Shi, Huimin Ma,
- Abstract要約: 我々は人間-AI協調のための概念駆動型フレームワークを提案する。
DeCoDeは人間解釈可能な概念表現に基づいて戦略決定を行う。
自律的なAI予測、人間への延期、人間とAIの協調的な相補性という3つのモードをサポートする。
- 参考スコア(独自算出の注目度): 37.118479480792416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In human-AI collaboration, a central challenge is deciding whether the AI should handle a task, be deferred to a human expert, or be addressed through collaborative effort. Existing Learning to Defer approaches typically make binary choices between AI and humans, neglecting their complementary strengths. They also lack interpretability, a critical property in high-stakes scenarios where users must understand and, if necessary, correct the model's reasoning. To overcome these limitations, we propose Defer-and-Complement Decision-Making via Decoupled Concept Bottleneck Models (DeCoDe), a concept-driven framework for human-AI collaboration. DeCoDe makes strategy decisions based on human-interpretable concept representations, enhancing transparency throughout the decision process. It supports three flexible modes: autonomous AI prediction, deferral to humans, and human-AI collaborative complementarity, selected via a gating network that takes concept-level inputs and is trained using a novel surrogate loss that balances accuracy and human effort. This approach enables instance-specific, interpretable, and adaptive human-AI collaboration. Experiments on real-world datasets demonstrate that DeCoDe significantly outperforms AI-only, human-only, and traditional deferral baselines, while maintaining strong robustness and interpretability even under noisy expert annotations.
- Abstract(参考訳): 人間とAIのコラボレーションでは、AIがタスクを処理するか、人間の専門家に延期するか、共同作業を通じて対処するかが決定される。
既存のLearning to Deferアプローチは、通常、AIと人間の間でバイナリな選択を行い、補完的な強みを無視します。
彼らはまた、ユーザーが理解し、必要であればモデルの推論を正さなければならない、ハイテイクなシナリオにおける重要な特性である解釈可能性も欠如している。
これらの制限を克服するため、人間とAIのコラボレーションのための概念駆動フレームワークであるDecorneck Models (DeCoDe) を通じてDefiner-and-Complement Decision-Makingを提案する。
DeCoDeは人間の解釈可能な概念表現に基づいて戦略決定を行い、意思決定プロセス全体の透明性を高める。
自律的なAI予測、人間への偏見、人間とAIの協調的な相補性という3つのフレキシブルなモードをサポートし、概念レベルの入力を受け取り、正確性と人間の努力のバランスをとる新しい代理損失を使用してトレーニングされるゲーティングネットワークを介して選択される。
このアプローチは、インスタンス固有、解釈可能、適応的なヒューマンAIコラボレーションを可能にする。
実世界のデータセットの実験では、DeCoDeはAIのみ、人間のみ、そして従来のデリルベースラインを著しく上回り、ノイズの多い専門家アノテーションの下でも強い堅牢性と解釈可能性を維持している。
関連論文リスト
- A Multi-Layered Research Framework for Human-Centered AI: Defining the Path to Explainability and Trust [2.4578723416255754]
人間中心型AI(HCAI)は人間の価値観との整合性を強調し、説明可能なAI(XAI)はAI決定をより理解しやすくすることで透明性を高める。
本稿では,HCAI と XAI を橋渡し,構造的説明可能性パラダイムを確立する新しい3層フレームワークを提案する。
我々の発見は、透明性、適応性、倫理的に整合したAIシステムを育成するHCXAI(Human-Centered Explainable AI)を前進させた。
論文 参考訳(メタデータ) (2025-04-14T01:29:30Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - Learning Complementary Policies for Human-AI Teams [22.13683008398939]
本稿では,効果的な行動選択のための新しい人間-AI協調のための枠組みを提案する。
私たちのソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としています。
論文 参考訳(メタデータ) (2023-02-06T17:22:18Z) - Human-AI Collaboration via Conditional Delegation: A Case Study of
Content Moderation [47.102566259034326]
我々は,人間-AI協調のための代替パラダイムとして条件付きデリゲートを提案する。
我々は、条件付きデリゲートルールの作成において、人間を支援する新しいインタフェースを開発する。
本研究は,モデル性能向上における条件付きデリゲートの実現可能性を示す。
論文 参考訳(メタデータ) (2022-04-25T17:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。