論文の概要: Learn to explain yourself, when you can: Equipping Concept Bottleneck
Models with the ability to abstain on their concept predictions
- arxiv url: http://arxiv.org/abs/2211.11690v1
- Date: Mon, 21 Nov 2022 18:07:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 22:01:18.155034
- Title: Learn to explain yourself, when you can: Equipping Concept Bottleneck
Models with the ability to abstain on their concept predictions
- Title(参考訳): 概念ボタネックモデル(Concept Bottleneck Models)の取得と,概念予測の棄却。
- Authors: Joshua Lockhart, Daniele Magazzeni, Manuela Veloso
- Abstract要約: 本稿では、ニューラルネットワークに基づく分類器に、概念ラベルコンポーネントが不確かである場合に、概念予測を控える機能を持たせる方法を示す。
我々のモデルは、その予測に合理性を与えることを学習するが、その理性が正しいことを保証するときだけに限られる。
- 参考スコア(独自算出の注目度): 21.94901195358998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Concept Bottleneck Models (CBMs) of Koh et al. [2020] provide a means to
ensure that a neural network based classifier bases its predictions solely on
human understandable concepts. The concept labels, or rationales as we refer to
them, are learned by the concept labeling component of the CBM. Another
component learns to predict the target classification label from these
predicted concept labels. Unfortunately, these models are heavily reliant on
human provided concept labels for each datapoint. To enable CBMs to behave
robustly when these labels are not readily available, we show how to equip them
with the ability to abstain from predicting concepts when the concept labeling
component is uncertain. In other words, our model learns to provide rationales
for its predictions, but only whenever it is sure the rationale is correct.
- Abstract(参考訳): kohらの概念ボトルネックモデル(cbms)。
[2020]は、ニューラルネットワークに基づく分類器がその予測を人間の理解可能な概念のみに基づいて確実にする手段を提供する。
概念ラベル(concept labels)は、私たちが言及する概念ラベルであり、cbmの概念ラベルコンポーネントによって学習される。
別のコンポーネントは、これらの予測された概念ラベルからターゲット分類ラベルを予測することを学ぶ。
残念ながら、これらのモデルは各データポイントのコンセプトラベルに大きく依存しています。
これらのラベルが手軽に利用できない場合、CBMが堅牢に動作できるようにするため、概念ラベルコンポーネントが不確実な場合に、その概念を予測できないようにする。
言い換えれば、我々のモデルは、その予測に合理性を与えることを学習するが、その理性が正しいことは確実である。
関連論文リスト
- Can we Constrain Concept Bottleneck Models to Learn Semantically
Meaningful Input Features? [0.6993232019625149]
概念ボトルネックモデル(CBM)は、人間の定義した概念の集合を最初に予測するため、本質的に解釈可能であると考えられている。
固有解釈可能性を完全に実現するためには、意味的にマッピングされた入力機能に基づいて概念が予測されることを保証する必要がある。
我々はCBMが問題となる概念相関を取り除き,意味的マッピングによる概念表現を入力特徴へ学習できることを実証した。
論文 参考訳(メタデータ) (2024-02-01T10:18:43Z) - Energy-Based Concept Bottleneck Models: Unifying Prediction, Concept
Intervention, and Probabilistic Interpretations [16.33960472610483]
概念ボトルネックモデル(CBM)は、ブラックボックスのディープラーニングモデルに対する概念ベースの解釈を提供することに成功している。
エネルギーベースコンセプトボトルネックモデル(ECBM)を提案する。
私たちのECBMは、候補(インプット、概念、クラス)の量子化の結合エネルギーを定義するために、ニューラルネットワークのセットを使用します。
論文 参考訳(メタデータ) (2024-01-25T12:46:37Z) - Simple Mechanisms for Representing, Indexing and Manipulating Concepts [46.715152257557804]
我々は、概念の具体的な表現やシグネチャを生成するために、そのモーメント統計行列を見ることで概念を学ぶことができると論じる。
概念が交差しているとき、概念のシグネチャを使用して、関連する多くの相互交差した概念の共通テーマを見つけることができる。
論文 参考訳(メタデータ) (2023-10-18T17:54:29Z) - Implicit Concept Removal of Diffusion Models [96.03200681493348]
テキスト・ツー・イメージ(T2I)拡散モデルは、透かしや安全でない画像などの不要な概念を不注意に生成する。
幾何学駆動制御に基づく新しい概念除去手法であるGeom-Erasingを提案する。
論文 参考訳(メタデータ) (2023-10-09T17:13:10Z) - Probabilistic Concept Bottleneck Models [26.789507935869107]
解釈可能なモデルは、人間の解釈可能な方法で決定を下すように設計されている。
本研究では,信頼性を損なうようなあいまいさの問題に対処する。
確率論的概念ボトルネックモデル(ProbCBM)を提案する。
論文 参考訳(メタデータ) (2023-06-02T14:38:58Z) - Towards learning to explain with concept bottleneck models: mitigating
information leakage [19.52933192442871]
概念ボトルネックモデルは、まず、データポイントについて、提供された概念のどれが正しいかを予測することによって分類を行う。
下流モデルでは、これらの予測された概念ラベルを使用してターゲットラベルを予測する。
予測された概念は、ターゲット予測の理論的根拠として機能する。
論文 参考訳(メタデータ) (2022-11-07T16:10:36Z) - Concept Activation Regions: A Generalized Framework For Concept-Based
Explanations [95.94432031144716]
既存の手法では、概念を説明する例は、ディープニューラルネットワークの潜伏空間の一定の方向にマッピングされていると仮定している。
そこで本研究では,DNNの潜在空間において,異なるクラスタに分散した概念例を提案する。
この概念活性化領域(CAR)は、グローバルな概念に基づく説明と局所的な概念に基づく特徴の重要性をもたらす。
論文 参考訳(メタデータ) (2022-09-22T17:59:03Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - Automatic Concept Extraction for Concept Bottleneck-based Video
Classification [58.11884357803544]
本稿では,概念に基づくビデオ分類に必要かつ十分な概念抽象セットを厳格に構成する概念発見抽出モジュールを提案する。
提案手法は,自然言語における概念概念の抽象概念を応用し,複雑なタスクに概念ボトルネック法を一般化する。
論文 参考訳(メタデータ) (2022-06-21T06:22:35Z) - Learning Interpretable Concept-Based Models with Human Feedback [36.65337734891338]
本研究では,ユーザが概念特徴をラベル付けすることに依存する高次元データにおいて,透明な概念定義の集合を学習するためのアプローチを提案する。
提案手法は,概念の意味を直感的に理解する概念と一致し,透過的な機械学習モデルにより下流ラベルの予測を容易にする概念を生成する。
論文 参考訳(メタデータ) (2020-12-04T23:41:05Z) - Concept Bottleneck Models [79.91795150047804]
現在の最先端モデルは、通常「骨の支柱の存在」のような概念の操作をサポートしない。
トレーニング時に提供される概念を最初に予測し、ラベルを予測するためにこれらの概念を使用するという古典的な考え方を再考する。
X線グレーディングと鳥の識別では、概念ボトルネックモデルが標準のエンドツーエンドモデルと競合する精度を達成する。
論文 参考訳(メタデータ) (2020-07-09T07:47:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。