論文の概要: Learning to Intervene on Concept Bottlenecks
- arxiv url: http://arxiv.org/abs/2308.13453v1
- Date: Fri, 25 Aug 2023 15:54:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 13:21:56.404824
- Title: Learning to Intervene on Concept Bottlenecks
- Title(参考訳): 概念ボトルネックへの介入を学ぶ
- Authors: David Steinmann, Wolfgang Stammer, Felix Friedrich, Kristian Kersting
- Abstract要約: 本稿では、概念ボトルネックモデル(CBM)の拡張である概念ボトルネックメモリモデル(CB2M)を提案する。
CB2Mは、2倍のメモリで適切な新しい状況への介入を一般化し、ミスを検出し、以前の介入を再適用することを学ぶ。
以上の結果から,CB2Mはユーザのインタラクションを誘導し,介入を少なくすることで,CBMに対して対話的なフィードバックを提供する上で,優れたツールであることがわかった。
- 参考スコア(独自算出の注目度): 26.163465868903863
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While traditional deep learning models often lack interpretability, concept
bottleneck models (CBMs) provide inherent explanations via their concept
representations. Specifically, they allow users to perform interventional
interactions on these concepts by updating the concept values and thus
correcting the predictive output of the model. Traditionally, however, these
interventions are applied to the model only once and discarded afterward. To
rectify this, we present concept bottleneck memory models (CB2M), an extension
to CBMs. Specifically, a CB2M learns to generalize interventions to appropriate
novel situations via a two-fold memory with which it can learn to detect
mistakes and to reapply previous interventions. In this way, a CB2M learns to
automatically improve model performance from a few initially obtained
interventions. If no prior human interventions are available, a CB2M can detect
potential mistakes of the CBM bottleneck and request targeted interventions. In
our experimental evaluations on challenging scenarios like handling
distribution shifts and confounded training data, we illustrate that CB2M are
able to successfully generalize interventions to unseen data and can indeed
identify wrongly inferred concepts. Overall, our results show that CB2M is a
great tool for users to provide interactive feedback on CBMs, e.g., by guiding
a user's interaction and requiring fewer interventions.
- Abstract(参考訳): 従来のディープラーニングモデルは解釈可能性に欠けることが多いが、概念ボトルネックモデル(CBM)は概念表現を通じて固有の説明を提供する。
具体的には、ユーザが概念値を更新し、モデルの予測出力を修正することで、これらの概念に対する介入的相互作用を実行できる。
しかし、伝統的に、これらの介入はモデルに1回だけ適用され、その後破棄される。
そこで本研究では,cbmsの拡張である概念ボトルネックメモリモデル(cb2m)を提案する。
具体的には、CB2Mは、2倍のメモリで介入を一般化し、ミスを検出し、以前の介入を再適用することができる。
このようにして、CB2Mは、最初に得られたいくつかの介入からモデルパフォーマンスを自動的に改善することを学ぶ。
以前の人間の介入が得られない場合、CB2MはCBMボトルネックの潜在的な誤りを検出し、標的とする介入を要求する。
分散シフトの処理やトレーニングデータの整合化といった難解なシナリオに関する実験的評価では、CB2Mは未確認データへの介入をうまく一般化することができ、誤って推論された概念を識別できることを示す。
以上の結果から,CB2Mはユーザのインタラクションをガイドし,介入を少なくすることで,CBMに対して対話的なフィードバックを提供する上で,優れたツールであることがわかった。
関連論文リスト
- Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Controlled Training Data Generation with Diffusion Models [48.123126522294015]
本稿では,教師あり学習のためのトレーニングデータを生成するために,テキスト・ツー・イメージ生成モデルを制御する手法を提案する。
本研究では,2つのフィードバック機構を備えたクローズドループシステムを開発した。
論文 参考訳(メタデータ) (2024-03-22T15:59:24Z) - Auxiliary Losses for Learning Generalizable Concept-based Models [5.4066453042367435]
コンセプト・ボトルネック・モデル (Concept Bottleneck Models, CBM) は導入以来人気を集めている。
CBMは基本的に、モデルの潜在空間を人間に理解可能な高レベルな概念に制限する。
本稿では,協調型コンセプション・ボトルネックモデル(coop-CBM)を提案し,性能トレードオフを克服する。
論文 参考訳(メタデータ) (2023-11-18T15:50:07Z) - Learning to Receive Help: Intervention-Aware Concept Embedding Models [44.1307928713715]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、高レベルの概念セットを使用して予測を構築し、説明することによって、ニューラルネットワークの不透明さに対処する。
近年の研究では、介入効果は概念が介入される順序に大きく依存していることが示されている。
IntCEM(Intervention-Aware Concept Embedding Model)は,テスト時間介入に対するモデルの受容性を改善する新しいCBMアーキテクチャとトレーニングパラダイムである。
論文 参考訳(メタデータ) (2023-09-29T02:04:24Z) - Relational Concept Bottleneck Models [13.311396882130033]
概念ボトルネックモデル(CBM)は問題を解決するために設計されていない。
R-CBMは標準CBMとリレーショナルGNNの両方を表現できる。
特に,R-CBMが概念に基づく説明の生成を支援することを示す。
論文 参考訳(メタデータ) (2023-08-23T08:25:33Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - A Closer Look at the Intervention Procedure of Concept Bottleneck Models [18.222350428973343]
概念ボトルネックモデル(コンセプションボトルネックモデル、CBM)は、その高レベルな概念に基づいて与えられた入力のターゲット応答を予測する、解釈可能なニューラルネットワークモデルのクラスである。
CBMは、ドメインの専門家が予測された概念に介入し、テスト時に間違いを修正できるので、最後にもっと正確なタスク予測ができる。
本研究では,介入効果を向上させるために介入概念を選択する様々な方法を開発し,異なる状況下でどのように進化するかを詳細に分析する。
論文 参考訳(メタデータ) (2023-02-28T02:37:24Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Cross-modal Consensus Network for Weakly Supervised Temporal Action
Localization [74.34699679568818]
時間的行動局所化 (WS-TAL) は、ビデオレベルの分類的監督によって、ビデオ内のアクションインスタンスをローカライズすることを目的とした課題である。
この問題に対処するためのクロスモーダルコンセンサスネットワーク(CO2-Net)を提案する。
論文 参考訳(メタデータ) (2021-07-27T04:21:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。