論文の概要: Probabilistic Concept Bottleneck Models
- arxiv url: http://arxiv.org/abs/2306.01574v1
- Date: Fri, 2 Jun 2023 14:38:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 14:41:44.328418
- Title: Probabilistic Concept Bottleneck Models
- Title(参考訳): 確率的概念ボトルネックモデル
- Authors: Eunji Kim, Dahuin Jung, Sangha Park, Siwon Kim, Sungroh Yoon
- Abstract要約: 解釈可能なモデルは、人間の解釈可能な方法で決定を下すように設計されている。
本研究では,信頼性を損なうようなあいまいさの問題に対処する。
確率論的概念ボトルネックモデル(ProbCBM)を提案する。
- 参考スコア(独自算出の注目度): 26.789507935869107
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Interpretable models are designed to make decisions in a human-interpretable
manner. Representatively, Concept Bottleneck Models (CBM) follow a two-step
process of concept prediction and class prediction based on the predicted
concepts. CBM provides explanations with high-level concepts derived from
concept predictions; thus, reliable concept predictions are important for
trustworthiness. In this study, we address the ambiguity issue that can harm
reliability. While the existence of a concept can often be ambiguous in the
data, CBM predicts concepts deterministically without considering this
ambiguity. To provide a reliable interpretation against this ambiguity, we
propose Probabilistic Concept Bottleneck Models (ProbCBM). By leveraging
probabilistic concept embeddings, ProbCBM models uncertainty in concept
prediction and provides explanations based on the concept and its corresponding
uncertainty. This uncertainty enhances the reliability of the explanations.
Furthermore, as class uncertainty is derived from concept uncertainty in
ProbCBM, we can explain class uncertainty by means of concept uncertainty. Code
is publicly available at https://github.com/ejkim47/prob-cbm.
- Abstract(参考訳): 解釈可能なモデルは、人間の解釈可能な方法で決定するように設計されている。
代表的に、Concept Bottleneck Models (CBM) は、予測された概念に基づいて概念予測とクラス予測の2段階のプロセスに従う。
CBMは、概念予測から派生した高レベルの概念の説明を提供するため、信頼性の高い概念予測は信頼性に重要である。
本研究では,信頼性を損なう曖昧性問題に対処する。
概念の存在はしばしばデータにおいて曖昧であるが、cbmはこの曖昧さを考慮せずに決定論的に概念を予測する。
この曖昧さに対する信頼できる解釈を提供するため,我々は確率的概念ボトルネックモデル(probcbm)を提案する。
確率的概念埋め込みを活用することで、probcbmは概念予測における不確実性をモデル化し、概念とその対応する不確実性に基づく説明を提供する。
この不確実性は説明の信頼性を高める。
さらに、クラス不確実性はProbCBMにおける概念不確実性に由来するため、概念不確実性を用いてクラス不確実性を説明することができる。
コードはhttps://github.com/ejkim47/prob-cbmで公開されている。
関連論文リスト
- MulCPred: Learning Multi-modal Concepts for Explainable Pedestrian Action Prediction [57.483718822429346]
MulCPredは、トレーニングサンプルで表されるマルチモーダルな概念に基づいて、その予測を説明する。
MulCPredは複数のデータセットとタスクで評価される。
論文 参考訳(メタデータ) (2024-09-14T14:15:28Z) - Evidential Concept Embedding Models: Towards Reliable Concept Explanations for Skin Disease Diagnosis [24.946148305384202]
CBM(Concept Bottleneck Models)は、人間の解釈可能な概念を意思決定に取り入れた、アクティブな解釈可能なフレームワークとして登場した。
本研究では,概念の不確かさをモデル化するために明らかな学習を利用する概念埋め込みモデル(evi-CEM)を提案する。
本評価は,evi-CEMが概念予測において優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-06-27T12:29:50Z) - On the Concept Trustworthiness in Concept Bottleneck Models [39.928868605678744]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、推論プロセスを、概念マッピングと概念ラベル予測に分解する。
概念からラベルへの予測の透明性にもかかわらず、入力から中間概念へのマッピングはブラックボックスのままである。
概念が関連する領域から導出されているかどうかを評価するために、概念信頼性スコアと呼ばれる先駆的な指標が提案されている。
拡張されたCBMを導入し、特徴マップの異なる部分から概念予測を具体的に行えるようにした。
論文 参考訳(メタデータ) (2024-03-21T12:24:53Z) - Energy-Based Concept Bottleneck Models: Unifying Prediction, Concept Intervention, and Probabilistic Interpretations [15.23014992362639]
概念ボトルネックモデル(CBM)は、ブラックボックスのディープラーニングモデルに対する概念ベースの解釈を提供することに成功している。
エネルギーベースコンセプトボトルネックモデル(ECBM)を提案する。
私たちのECBMは、候補(インプット、概念、クラス)の量子化の結合エネルギーを定義するために、ニューラルネットワークのセットを使用します。
論文 参考訳(メタデータ) (2024-01-25T12:46:37Z) - Do Concept Bottleneck Models Respect Localities? [14.77558378567965]
概念に基づく手法は、人間の理解可能な概念を用いてモデル予測を説明する。
ローカリティ(Localities)とは、概念の価値を予測する際に、関連する機能のみを使用することである。
CBMは、独立概念が重複しない特徴部分集合に局所化されている場合でも、局所性を捉えない。
論文 参考訳(メタデータ) (2024-01-02T16:05:23Z) - Statistically Significant Concept-based Explanation of Image Classifiers
via Model Knockoffs [22.576922942465142]
概念に基づく説明は、非関連概念を予測タスクにとって重要であると誤解する偽陽性を引き起こす可能性がある。
深層学習モデルを用いて画像概念を学習し,Knockoffサンプルを用いて予測のための重要な概念を選択する手法を提案する。
論文 参考訳(メタデータ) (2023-05-27T05:40:05Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - Uncertainty estimation of pedestrian future trajectory using Bayesian
approximation [137.00426219455116]
動的トラフィックシナリオでは、決定論的予測に基づく計画は信頼できない。
著者らは、決定論的アプローチが捉えられない近似を用いて予測中の不確実性を定量化する。
将来の状態の不確実性に対する降雨重量と長期予測の影響について検討した。
論文 参考訳(メタデータ) (2022-05-04T04:23:38Z) - Kernelized Concept Erasure [108.65038124096907]
概念消去のための線形ミニマックスゲームのカーネル化を提案する。
特定の非線形敵が概念を予測するのを防ぐことができる。
しかし、保護は異なる非線形敵に移動しない。
論文 参考訳(メタデータ) (2022-01-28T15:45:13Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。