論文の概要: Post-hoc Concept Bottleneck Models
- arxiv url: http://arxiv.org/abs/2205.15480v1
- Date: Tue, 31 May 2022 00:29:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 04:17:17.532512
- Title: Post-hoc Concept Bottleneck Models
- Title(参考訳): ポストホック概念ボトルネックモデル
- Authors: Mert Yuksekgonul, Maggie Wang, James Zou
- Abstract要約: 概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、入力を解釈可能な概念のセットにマッピングし、その概念を用いて予測を行う。
CBMは、ボトルネックを学ぶためにトレーニングデータに概念ラベルを必要とするため、実際には制限があり、強い事前訓練されたモデルを活用しない。
解釈可能性の利点を保ちながら、モデル性能を犠牲にすることなく、任意のニューラルネットワークをPCBMに変換することができることを示す。
- 参考スコア(独自算出の注目度): 11.358495577593441
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Concept Bottleneck Models (CBMs) map the inputs onto a set of interpretable
concepts (``the bottleneck'') and use the concepts to make predictions. A
concept bottleneck enhances interpretability since it can be investigated to
understand what concepts the model "sees" in an input and which of these
concepts are deemed important. However, CBMs are restrictive in practice as
they require concept labels in the training data to learn the bottleneck and do
not leverage strong pretrained models. Moreover, CBMs often do not match the
accuracy of an unrestricted neural network, reducing the incentive to deploy
them in practice. In this work, we address the limitations of CBMs by
introducing Post-hoc Concept Bottleneck models (PCBMs). We show that we can
turn any neural network into a PCBM without sacrificing model performance while
still retaining interpretability benefits. When concept annotation is not
available on the training data, we show that PCBM can transfer concepts from
other datasets or from natural language descriptions of concepts. PCBM also
enables users to quickly debug and update the model to reduce spurious
correlations and improve generalization to new (potentially different) data.
Through a model-editing user study, we show that editing PCBMs via
concept-level feedback can provide significant performance gains without using
any data from the target domain or model retraining.
- Abstract(参考訳): 概念ボトルネックモデル(CBM)は、入力を解釈可能な概念のセット(``the bottleneck''')にマッピングし、その概念を使用して予測を行う。
概念ボトルネックは、モデルがどの概念を「見る」のか、どの概念が重要かを理解するために研究できるため、解釈可能性を高める。
しかし、CBMはボトルネックを学習するためにトレーニングデータに概念ラベルを必要とするため、実際には制限的であり、強い事前訓練されたモデルを活用しない。
さらに、CBMは、制限のないニューラルネットワークの精度に合わないことが多いため、実際にデプロイするインセンティブが低下する。
本稿では,ポストホック概念ボトルネックモデル(PCBM)を導入することで,CBMの限界に対処する。
モデル性能を犠牲にすることなく、解釈可能性の利点を保ちながら、任意のニューラルネットワークをpcbmにすることができることを示す。
トレーニングデータでは概念アノテーションが利用できない場合,PCBMは他のデータセットや概念の自然言語記述から概念を転送可能であることを示す。
PCBMはまた、ユーザーがモデルの迅速なデバッグと更新を可能にし、スプリアス相関を減らし、新しい(潜在的に異なる)データへの一般化を改善する。
モデル編集ユーザスタディを通じて、ターゲットドメインのデータやモデル再トレーニングを使わずに、概念レベルのフィードバックによるPCBMの編集が、大きなパフォーマンス向上をもたらすことを示す。
関連論文リスト
- How to Continually Adapt Text-to-Image Diffusion Models for Flexible Customization? [91.49559116493414]
本稿では,CIDM(Concept-Incremental Text-to-image Diffusion Model)を提案する。
破滅的な忘れと概念の無視を解決し、新しいカスタマイズタスクを概念的な方法で学習する。
実験により、CIDMが既存のカスタム拡散モデルを上回ることが確認された。
論文 参考訳(メタデータ) (2024-10-23T06:47:29Z) - MulCPred: Learning Multi-modal Concepts for Explainable Pedestrian Action Prediction [57.483718822429346]
MulCPredは、トレーニングサンプルで表されるマルチモーダルな概念に基づいて、その予測を説明する。
MulCPredは複数のデータセットとタスクで評価される。
論文 参考訳(メタデータ) (2024-09-14T14:15:28Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Interpretable Prognostics with Concept Bottleneck Models [5.939858158928473]
概念ボトルネックモデル(Concept Bottleneck Models, CBM)は、概念的説明に基づいて本質的に解釈可能なニューラルネットワークアーキテクチャである。
CBMはドメインの専門家がテスト時にコンセプトアクティベーションに介入できるようにする。
ケーススタディでは,CBMの性能がブラックボックスモデルと同等か優れていることが示されている。
論文 参考訳(メタデータ) (2024-05-27T18:15:40Z) - Editable Concept Bottleneck Models [36.38845338945026]
概念ボトルネックモデル(Concept Bottleneck Models, CBM)は、人間の理解できない概念層を通じて予測プロセスを解明する能力に対して、多くの注目を集めている。
多くのシナリオでは、プライバシの懸念、データの誤り、急激な概念、概念アノテーションのエラーなど、さまざまな理由で、トレーニングデータや新しい概念をトレーニングされたCBMから削除/挿入する必要があります。
具体的には、ECBMは、概念ラベルレベル、概念レベル、データレベルという3つの異なるレベルのデータ削除をサポートしている。
論文 参考訳(メタデータ) (2024-05-24T11:55:46Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Incremental Residual Concept Bottleneck Models [29.388549499546556]
Concept Bottleneck Models (CBM) は、ディープニューラルネットワークによって抽出されたブラックボックスの視覚表現を、解釈可能な概念のセットにマッピングする。
本稿では,概念完全性の課題を解決するために,インクリメンタル・Residual Concept Bottleneck Model (Res-CBM)を提案する。
提案手法は,任意のCBMの性能向上を目的としたポストホック処理法として,ユーザ定義の概念バンクに適用できる。
論文 参考訳(メタデータ) (2024-04-13T12:02:19Z) - Sparse Concept Bottleneck Models: Gumbel Tricks in Contrastive Learning [86.15009879251386]
概念ボトルネックモデル(CBM)を用いた新しいアーキテクチャと説明可能な分類法を提案する。
CBMには、さらなる概念のセットが必要である。
CLIPをベースとしたボトルネックモデルにおいて,スパース隠れ層を用いた精度の大幅な向上を示す。
論文 参考訳(メタデータ) (2024-04-04T09:43:43Z) - Do Concept Bottleneck Models Respect Localities? [14.77558378567965]
概念に基づく手法は、人間の理解可能な概念を用いてモデル予測を説明する。
ローカリティ(Localities)とは、概念の価値を予測する際に、関連する機能のみを使用することである。
CBMは、独立概念が重複しない特徴部分集合に局所化されている場合でも、局所性を捉えない。
論文 参考訳(メタデータ) (2024-01-02T16:05:23Z) - Auxiliary Losses for Learning Generalizable Concept-based Models [5.4066453042367435]
コンセプト・ボトルネック・モデル (Concept Bottleneck Models, CBM) は導入以来人気を集めている。
CBMは基本的に、モデルの潜在空間を人間に理解可能な高レベルな概念に制限する。
本稿では,協調型コンセプション・ボトルネックモデル(coop-CBM)を提案し,性能トレードオフを克服する。
論文 参考訳(メタデータ) (2023-11-18T15:50:07Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。