論文の概要: Deferring Concept Bottleneck Models: Learning to Defer Interventions to Inaccurate Experts
- arxiv url: http://arxiv.org/abs/2503.16199v1
- Date: Thu, 20 Mar 2025 14:45:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:33:45.086670
- Title: Deferring Concept Bottleneck Models: Learning to Defer Interventions to Inaccurate Experts
- Title(参考訳): 概念ボトルネックモデルの定義:不正確な専門家への介入を学習する
- Authors: Andrea Pugnana, Riccardo Massidda, Francesco Giannini, Pietro Barbiero, Mateo Espinosa Zarlenga, Roberto Pellungrini, Gabriele Dominici, Fosca Giannotti, Davide Bacciu,
- Abstract要約: Concept Bottleneck Models (CBM) は、解釈性を改善する機械学習モデルである。
CBMは、介入する必要性を識別し、常に正しい介入を提供する人間の存在を前提としている。
我々は、CBMが介入が必要なときに学習できる新しいフレームワークであるDeferring CBM(DCBM)を提案する。
- 参考スコア(独自算出の注目度): 21.771324228992675
- License:
- Abstract: Concept Bottleneck Models (CBMs) are machine learning models that improve interpretability by grounding their predictions on human-understandable concepts, allowing for targeted interventions in their decision-making process. However, when intervened on, CBMs assume the availability of humans that can identify the need to intervene and always provide correct interventions. Both assumptions are unrealistic and impractical, considering labor costs and human error-proneness. In contrast, Learning to Defer (L2D) extends supervised learning by allowing machine learning models to identify cases where a human is more likely to be correct than the model, thus leading to deferring systems with improved performance. In this work, we gain inspiration from L2D and propose Deferring CBMs (DCBMs), a novel framework that allows CBMs to learn when an intervention is needed. To this end, we model DCBMs as a composition of deferring systems and derive a consistent L2D loss to train them. Moreover, by relying on a CBM architecture, DCBMs can explain why defer occurs on the final task. Our results show that DCBMs achieve high predictive performance and interpretability at the cost of deferring more to humans.
- Abstract(参考訳): コンセプト・ボトルネック・モデル(Concept Bottleneck Models, CBM)は、人間の理解可能な概念に基づいて予測を基礎にして解釈可能性を向上させる機械学習モデルである。
しかし、介入する際、CBMは介入する必要性を認識し、常に正しい介入を提供する人間の存在を前提としている。
両者の仮定は非現実的で非現実的であり、労働コストと人間の誤りを考慮に入れている。
対照的に、L2D(Learning to Defer)は、機械学習モデルによって、人間がモデルよりも正しい可能性が高いケースを特定することによって、教師付き学習を拡張し、パフォーマンスを改善したシステムを遅延させる。
本研究は、L2Dからインスピレーションを得て、CBMが介入が必要な場合の学習を可能にする新しいフレームワークであるDeferring CBM(DCBM)を提案する。
この目的のために、DCBMを遅延システムの構成としてモデル化し、それらを訓練するために一貫したL2D損失を導出する。
さらに、CBMアーキテクチャを頼りにすることで、DCBMは最終タスクで遅延が発生する理由を説明することができる。
以上の結果から,DCBMは高い予測性能と解釈可能性を実現し,人体への遅延を抑えることができた。
関連論文リスト
- Predicting and Understanding Human Action Decisions: Insights from Large Language Models and Cognitive Instance-Based Learning [0.0]
大きな言語モデル(LLM)は、様々なタスクにまたがってその能力を実証している。
本稿では,LLMの推論と生成能力を利用して,2つの逐次意思決定タスクにおける人間の行動を予測する。
我々は,LLMの性能を,人間の経験的意思決定を模倣した認知的インスタンスベース学習モデルと比較した。
論文 参考訳(メタデータ) (2024-07-12T14:13:06Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - DistiLLM: Towards Streamlined Distillation for Large Language Models [53.46759297929675]
DistiLLMは自動回帰言語モデルのためのより効率的で効率的なKDフレームワークである。
DisiLLMは,(1)新しいスキューKulback-Leibler分散損失,(2)学生生成出力の効率向上を目的とした適応型オフ政治アプローチの2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2024-02-06T11:10:35Z) - Secrets of RLHF in Large Language Models Part II: Reward Modeling [134.97964938009588]
本稿では,データセットにおける不正確で曖昧な嗜好の影響を軽減するために,一連の新しい手法を紹介する。
また、選択された応答と拒否された応答を区別する報酬モデルの有用性を高めるために、対照的な学習を導入する。
論文 参考訳(メタデータ) (2024-01-11T17:56:59Z) - Learning to Intervene on Concept Bottlenecks [23.949827380111476]
概念ボトルネックメモリモデル (CB2Ms) は2倍のメモリを利用して、介入を適切な新しい状況に一般化する。
CB2Mは、見当たらないデータに対する介入をうまく一般化することができ、正しく推論された概念を識別することができる。
論文 参考訳(メタデータ) (2023-08-25T15:54:22Z) - Human Trajectory Forecasting with Explainable Behavioral Uncertainty [63.62824628085961]
人間の軌道予測は人間の行動を理解し予測し、社会ロボットから自動運転車への応用を可能にする。
モデルフリー手法は予測精度が優れているが説明可能性に欠ける一方、モデルベース手法は説明可能性を提供するが、よく予測できない。
BNSP-SFMは,11種類の最先端手法と比較して,予測精度を最大50%向上することを示す。
論文 参考訳(メタデータ) (2023-07-04T16:45:21Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Faithful and Plausible Explanations of Medical Code Predictions [12.156363504753244]
説明は、モデルの意思決定に対する忠実さと、ドメインの専門家への妥当性のバランスをとらなければならない。
トレーニングされたモデルの振る舞いを模倣し、これらのトレードオフをきめ細かく制御するプロキシモデルをトレーニングします。
我々は,icdコードを臨床ノートに割り当てる作業に対するアプローチを評価し,プロキシモデルからの説明が忠実で,訓練されたモデルの振る舞いを再現できることを示す。
論文 参考訳(メタデータ) (2021-04-16T05:13:36Z) - Deep Interpretable Models of Theory of Mind For Human-Agent Teaming [0.7734726150561086]
我々は、他の観測対象の意図をモデル化するための解釈可能なモジュラー・ニューラル・フレームワークを開発する。
Minecraftの検索および救助タスクで、人間の参加者のデータに関する実験を行い、アプローチの有効性を実証します。
論文 参考訳(メタデータ) (2021-04-07T06:18:58Z) - Human-Understandable Decision Making for Visual Recognition [30.30163407674527]
モデル学習プロセスに人間の知覚の優先順位を組み込むことにより,深層ニューラルネットワークを訓練する新たなフレームワークを提案する。
提案モデルの有効性を2つの古典的視覚認識タスクで評価する。
論文 参考訳(メタデータ) (2021-03-05T02:07:33Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。