論文の概要: Towards learning to explain with concept bottleneck models: mitigating
information leakage
- arxiv url: http://arxiv.org/abs/2211.03656v1
- Date: Mon, 7 Nov 2022 16:10:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 18:59:17.681017
- Title: Towards learning to explain with concept bottleneck models: mitigating
information leakage
- Title(参考訳): 概念ボトルネックモデルによる説明の学習 : 情報漏洩の軽減
- Authors: Joshua Lockhart, Nicolas Marchesotti, Daniele Magazzeni, Manuela
Veloso
- Abstract要約: 概念ボトルネックモデルは、まず、データポイントについて、提供された概念のどれが正しいかを予測することによって分類を行う。
下流モデルでは、これらの予測された概念ラベルを使用してターゲットラベルを予測する。
予測された概念は、ターゲット予測の理論的根拠として機能する。
- 参考スコア(独自算出の注目度): 19.52933192442871
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concept bottleneck models perform classification by first predicting which of
a list of human provided concepts are true about a datapoint. Then a downstream
model uses these predicted concept labels to predict the target label. The
predicted concepts act as a rationale for the target prediction. Model trust
issues emerge in this paradigm when soft concept labels are used: it has
previously been observed that extra information about the data distribution
leaks into the concept predictions. In this work we show how Monte-Carlo
Dropout can be used to attain soft concept predictions that do not contain
leaked information.
- Abstract(参考訳): 概念ボトルネックモデルは、まずデータポイントについて、提供された概念のどれが正しいかを予測することによって分類を行う。
次に、下流モデルがこれらの予測された概念ラベルを使用してターゲットラベルを予測する。
予測された概念は、ターゲット予測の根拠として機能する。
モデル信頼問題は、ソフトなコンセプトラベルを使用する際に、このパラダイムに現れます。以前は、データ分散に関する余分な情報がコンセプト予測に漏れることが観察されています。
本研究では,モンテカルロ・ドロップアウトを用いて,漏洩情報を含まないソフトな概念予測を実現する方法を示す。
関連論文リスト
- Can we Constrain Concept Bottleneck Models to Learn Semantically
Meaningful Input Features? [0.6993232019625149]
概念ボトルネックモデル(CBM)は、人間の定義した概念の集合を最初に予測するため、本質的に解釈可能であると考えられている。
固有解釈可能性を完全に実現するためには、意味的にマッピングされた入力機能に基づいて概念が予測されることを保証する必要がある。
我々はCBMが問題となる概念相関を取り除き,意味的マッピングによる概念表現を入力特徴へ学習できることを実証した。
論文 参考訳(メタデータ) (2024-02-01T10:18:43Z) - Estimation of Concept Explanations Should be Uncertainty Aware [45.141438981504564]
本研究では,人間の理解可能な概念を用いてモデルを解釈することを目的として,概念説明と呼ばれる特定のグローバルな説明について研究する。
マルチモーダル学習の最近の進歩は、概念的説明への関心を再燃させ、評価のためのラベル効率の良い提案につながった。
本稿では,概念記述の信頼性を向上する不確実性を考慮したベイズ推定手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T11:17:27Z) - Probabilistic Concept Bottleneck Models [26.789507935869107]
解釈可能なモデルは、人間の解釈可能な方法で決定を下すように設計されている。
本研究では,信頼性を損なうようなあいまいさの問題に対処する。
確率論的概念ボトルネックモデル(ProbCBM)を提案する。
論文 参考訳(メタデータ) (2023-06-02T14:38:58Z) - Statistically Significant Concept-based Explanation of Image Classifiers
via Model Knockoffs [22.576922942465142]
概念に基づく説明は、非関連概念を予測タスクにとって重要であると誤解する偽陽性を引き起こす可能性がある。
深層学習モデルを用いて画像概念を学習し,Knockoffサンプルを用いて予測のための重要な概念を選択する手法を提案する。
論文 参考訳(メタデータ) (2023-05-27T05:40:05Z) - Learn to explain yourself, when you can: Equipping Concept Bottleneck
Models with the ability to abstain on their concept predictions [21.94901195358998]
本稿では、ニューラルネットワークに基づく分類器に、概念ラベルコンポーネントが不確かである場合に、概念予測を控える機能を持たせる方法を示す。
我々のモデルは、その予測に合理性を与えることを学習するが、その理性が正しいことを保証するときだけに限られる。
論文 参考訳(メタデータ) (2022-11-21T18:07:14Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - Uncertainty estimation of pedestrian future trajectory using Bayesian
approximation [137.00426219455116]
動的トラフィックシナリオでは、決定論的予測に基づく計画は信頼できない。
著者らは、決定論的アプローチが捉えられない近似を用いて予測中の不確実性を定量化する。
将来の状態の不確実性に対する降雨重量と長期予測の影響について検討した。
論文 参考訳(メタデータ) (2022-05-04T04:23:38Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Concept Bottleneck Models [79.91795150047804]
現在の最先端モデルは、通常「骨の支柱の存在」のような概念の操作をサポートしない。
トレーニング時に提供される概念を最初に予測し、ラベルを予測するためにこれらの概念を使用するという古典的な考え方を再考する。
X線グレーディングと鳥の識別では、概念ボトルネックモデルが標準のエンドツーエンドモデルと競合する精度を達成する。
論文 参考訳(メタデータ) (2020-07-09T07:47:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。