論文の概要: Learn to explain yourself, when you can: Equipping Concept Bottleneck
Models with the ability to abstain on their concept predictions
- arxiv url: http://arxiv.org/abs/2211.11690v1
- Date: Mon, 21 Nov 2022 18:07:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 22:01:18.155034
- Title: Learn to explain yourself, when you can: Equipping Concept Bottleneck
Models with the ability to abstain on their concept predictions
- Title(参考訳): 概念ボタネックモデル(Concept Bottleneck Models)の取得と,概念予測の棄却。
- Authors: Joshua Lockhart, Daniele Magazzeni, Manuela Veloso
- Abstract要約: 本稿では、ニューラルネットワークに基づく分類器に、概念ラベルコンポーネントが不確かである場合に、概念予測を控える機能を持たせる方法を示す。
我々のモデルは、その予測に合理性を与えることを学習するが、その理性が正しいことを保証するときだけに限られる。
- 参考スコア(独自算出の注目度): 21.94901195358998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Concept Bottleneck Models (CBMs) of Koh et al. [2020] provide a means to
ensure that a neural network based classifier bases its predictions solely on
human understandable concepts. The concept labels, or rationales as we refer to
them, are learned by the concept labeling component of the CBM. Another
component learns to predict the target classification label from these
predicted concept labels. Unfortunately, these models are heavily reliant on
human provided concept labels for each datapoint. To enable CBMs to behave
robustly when these labels are not readily available, we show how to equip them
with the ability to abstain from predicting concepts when the concept labeling
component is uncertain. In other words, our model learns to provide rationales
for its predictions, but only whenever it is sure the rationale is correct.
- Abstract(参考訳): kohらの概念ボトルネックモデル(cbms)。
[2020]は、ニューラルネットワークに基づく分類器がその予測を人間の理解可能な概念のみに基づいて確実にする手段を提供する。
概念ラベル(concept labels)は、私たちが言及する概念ラベルであり、cbmの概念ラベルコンポーネントによって学習される。
別のコンポーネントは、これらの予測された概念ラベルからターゲット分類ラベルを予測することを学ぶ。
残念ながら、これらのモデルは各データポイントのコンセプトラベルに大きく依存しています。
これらのラベルが手軽に利用できない場合、CBMが堅牢に動作できるようにするため、概念ラベルコンポーネントが不確実な場合に、その概念を予測できないようにする。
言い換えれば、我々のモデルは、その予測に合理性を与えることを学習するが、その理性が正しいことは確実である。
関連論文リスト
- Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Semi-supervised Concept Bottleneck Models [9.875244481114489]
SSCBM(Seemi-supervised Concept Bottleneck Model)と呼ばれる新しいフレームワークを提案する。
我々のSCBMは、注釈付きデータが不足している現実的な状況に適しています。
ラベル付きデータは20%しかなく、93.19%のコンセプト精度と75.51%(79.82%)の予測精度を達成した。
論文 参考訳(メタデータ) (2024-06-27T08:33:35Z) - On the Concept Trustworthiness in Concept Bottleneck Models [39.928868605678744]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、推論プロセスを、概念マッピングと概念ラベル予測に分解する。
概念からラベルへの予測の透明性にもかかわらず、入力から中間概念へのマッピングはブラックボックスのままである。
概念が関連する領域から導出されているかどうかを評価するために、概念信頼性スコアと呼ばれる先駆的な指標が提案されている。
拡張されたCBMを導入し、特徴マップの異なる部分から概念予測を具体的に行えるようにした。
論文 参考訳(メタデータ) (2024-03-21T12:24:53Z) - Can we Constrain Concept Bottleneck Models to Learn Semantically Meaningful Input Features? [0.6401548653313325]
概念ボトルネックモデル(CBM)は、人間の定義した概念の集合を最初に予測するため、本質的に解釈可能であるとみなされる。
現在の文献では、概念予測は無関係な入力特徴に依存することが多いことを示唆している。
本稿では,CBMが概念を意味的に意味のある入力特徴にマッピングできることを実証する。
論文 参考訳(メタデータ) (2024-02-01T10:18:43Z) - Energy-Based Concept Bottleneck Models: Unifying Prediction, Concept Intervention, and Probabilistic Interpretations [15.23014992362639]
概念ボトルネックモデル(CBM)は、ブラックボックスのディープラーニングモデルに対する概念ベースの解釈を提供することに成功している。
エネルギーベースコンセプトボトルネックモデル(ECBM)を提案する。
私たちのECBMは、候補(インプット、概念、クラス)の量子化の結合エネルギーを定義するために、ニューラルネットワークのセットを使用します。
論文 参考訳(メタデータ) (2024-01-25T12:46:37Z) - Simple Mechanisms for Representing, Indexing and Manipulating Concepts [46.715152257557804]
我々は、概念の具体的な表現やシグネチャを生成するために、そのモーメント統計行列を見ることで概念を学ぶことができると論じる。
概念が交差しているとき、概念のシグネチャを使用して、関連する多くの相互交差した概念の共通テーマを見つけることができる。
論文 参考訳(メタデータ) (2023-10-18T17:54:29Z) - Towards learning to explain with concept bottleneck models: mitigating
information leakage [19.52933192442871]
概念ボトルネックモデルは、まず、データポイントについて、提供された概念のどれが正しいかを予測することによって分類を行う。
下流モデルでは、これらの予測された概念ラベルを使用してターゲットラベルを予測する。
予測された概念は、ターゲット予測の理論的根拠として機能する。
論文 参考訳(メタデータ) (2022-11-07T16:10:36Z) - Concept Activation Regions: A Generalized Framework For Concept-Based
Explanations [95.94432031144716]
既存の手法では、概念を説明する例は、ディープニューラルネットワークの潜伏空間の一定の方向にマッピングされていると仮定している。
そこで本研究では,DNNの潜在空間において,異なるクラスタに分散した概念例を提案する。
この概念活性化領域(CAR)は、グローバルな概念に基づく説明と局所的な概念に基づく特徴の重要性をもたらす。
論文 参考訳(メタデータ) (2022-09-22T17:59:03Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - Automatic Concept Extraction for Concept Bottleneck-based Video
Classification [58.11884357803544]
本稿では,概念に基づくビデオ分類に必要かつ十分な概念抽象セットを厳格に構成する概念発見抽出モジュールを提案する。
提案手法は,自然言語における概念概念の抽象概念を応用し,複雑なタスクに概念ボトルネック法を一般化する。
論文 参考訳(メタデータ) (2022-06-21T06:22:35Z) - Concept Bottleneck Models [79.91795150047804]
現在の最先端モデルは、通常「骨の支柱の存在」のような概念の操作をサポートしない。
トレーニング時に提供される概念を最初に予測し、ラベルを予測するためにこれらの概念を使用するという古典的な考え方を再考する。
X線グレーディングと鳥の識別では、概念ボトルネックモデルが標準のエンドツーエンドモデルと競合する精度を達成する。
論文 参考訳(メタデータ) (2020-07-09T07:47:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。