論文の概要: Towards learning to explain with concept bottleneck models: mitigating
information leakage
- arxiv url: http://arxiv.org/abs/2211.03656v1
- Date: Mon, 7 Nov 2022 16:10:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 18:59:17.681017
- Title: Towards learning to explain with concept bottleneck models: mitigating
information leakage
- Title(参考訳): 概念ボトルネックモデルによる説明の学習 : 情報漏洩の軽減
- Authors: Joshua Lockhart, Nicolas Marchesotti, Daniele Magazzeni, Manuela
Veloso
- Abstract要約: 概念ボトルネックモデルは、まず、データポイントについて、提供された概念のどれが正しいかを予測することによって分類を行う。
下流モデルでは、これらの予測された概念ラベルを使用してターゲットラベルを予測する。
予測された概念は、ターゲット予測の理論的根拠として機能する。
- 参考スコア(独自算出の注目度): 19.52933192442871
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concept bottleneck models perform classification by first predicting which of
a list of human provided concepts are true about a datapoint. Then a downstream
model uses these predicted concept labels to predict the target label. The
predicted concepts act as a rationale for the target prediction. Model trust
issues emerge in this paradigm when soft concept labels are used: it has
previously been observed that extra information about the data distribution
leaks into the concept predictions. In this work we show how Monte-Carlo
Dropout can be used to attain soft concept predictions that do not contain
leaked information.
- Abstract(参考訳): 概念ボトルネックモデルは、まずデータポイントについて、提供された概念のどれが正しいかを予測することによって分類を行う。
次に、下流モデルがこれらの予測された概念ラベルを使用してターゲットラベルを予測する。
予測された概念は、ターゲット予測の根拠として機能する。
モデル信頼問題は、ソフトなコンセプトラベルを使用する際に、このパラダイムに現れます。以前は、データ分散に関する余分な情報がコンセプト予測に漏れることが観察されています。
本研究では,モンテカルロ・ドロップアウトを用いて,漏洩情報を含まないソフトな概念予測を実現する方法を示す。
関連論文リスト
- MulCPred: Learning Multi-modal Concepts for Explainable Pedestrian Action Prediction [57.483718822429346]
MulCPredは、トレーニングサンプルで表されるマルチモーダルな概念に基づいて、その予測を説明する。
MulCPredは複数のデータセットとタスクで評価される。
論文 参考訳(メタデータ) (2024-09-14T14:15:28Z) - Achieving Data Efficient Neural Networks with Hybrid Concept-based Models [0.0]
クラスラベルと概念と呼ばれるデータセットの付加情報の両方をトレーニングする2つの新しいモデルアーキテクチャを導入する。
ハイブリッドの概念に基づくモデルは、特にスパースデータ設定において、精度に関して、標準的なコンピュータビジョンモデルよりも優れていることを示す。
また,概念ベースモデルの概念予測を変更せずに,クラス予測を変更する方法で,画像が摂動されるような,敵対的概念攻撃を行うアルゴリズムも導入する。
論文 参考訳(メタデータ) (2024-08-14T10:15:34Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Semi-supervised Concept Bottleneck Models [9.875244481114489]
SSCBM(Seemi-supervised Concept Bottleneck Model)と呼ばれる新しいフレームワークを提案する。
我々のSCBMは、注釈付きデータが不足している現実的な状況に適しています。
ラベル付きデータは20%しかなく、93.19%のコンセプト精度と75.51%(79.82%)の予測精度を達成した。
論文 参考訳(メタデータ) (2024-06-27T08:33:35Z) - Sparse Concept Bottleneck Models: Gumbel Tricks in Contrastive Learning [86.15009879251386]
概念ボトルネックモデル(CBM)を用いた新しいアーキテクチャと説明可能な分類法を提案する。
CBMには、さらなる概念のセットが必要である。
CLIPをベースとしたボトルネックモデルにおいて,スパース隠れ層を用いた精度の大幅な向上を示す。
論文 参考訳(メタデータ) (2024-04-04T09:43:43Z) - Can we Constrain Concept Bottleneck Models to Learn Semantically Meaningful Input Features? [0.6401548653313325]
概念ボトルネックモデル(CBM)は、人間の定義した概念の集合を最初に予測するため、本質的に解釈可能であるとみなされる。
現在の文献では、概念予測は無関係な入力特徴に依存することが多いことを示唆している。
本稿では,CBMが概念を意味的に意味のある入力特徴にマッピングできることを実証する。
論文 参考訳(メタデータ) (2024-02-01T10:18:43Z) - Statistically Significant Concept-based Explanation of Image Classifiers
via Model Knockoffs [22.576922942465142]
概念に基づく説明は、非関連概念を予測タスクにとって重要であると誤解する偽陽性を引き起こす可能性がある。
深層学習モデルを用いて画像概念を学習し,Knockoffサンプルを用いて予測のための重要な概念を選択する手法を提案する。
論文 参考訳(メタデータ) (2023-05-27T05:40:05Z) - Learn to explain yourself, when you can: Equipping Concept Bottleneck
Models with the ability to abstain on their concept predictions [21.94901195358998]
本稿では、ニューラルネットワークに基づく分類器に、概念ラベルコンポーネントが不確かである場合に、概念予測を控える機能を持たせる方法を示す。
我々のモデルは、その予測に合理性を与えることを学習するが、その理性が正しいことを保証するときだけに限られる。
論文 参考訳(メタデータ) (2022-11-21T18:07:14Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Concept Bottleneck Models [79.91795150047804]
現在の最先端モデルは、通常「骨の支柱の存在」のような概念の操作をサポートしない。
トレーニング時に提供される概念を最初に予測し、ラベルを予測するためにこれらの概念を使用するという古典的な考え方を再考する。
X線グレーディングと鳥の識別では、概念ボトルネックモデルが標準のエンドツーエンドモデルと競合する精度を達成する。
論文 参考訳(メタデータ) (2020-07-09T07:47:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。