論文の概要: Uncertainty-Aware Concept Bottleneck Models with Enhanced Interpretability
- arxiv url: http://arxiv.org/abs/2510.00773v1
- Date: Wed, 01 Oct 2025 11:11:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.526676
- Title: Uncertainty-Aware Concept Bottleneck Models with Enhanced Interpretability
- Title(参考訳): 高い解釈性を有する不確実性を考慮した概念ボトルネックモデル
- Authors: Haifei Zhang, Patrick Barry, Eduardo Brandao,
- Abstract要約: Concept Bottleneck Models (CBM) は、まずイメージを人間の理解可能な概念のセットに埋め込む。
CBMは意味的に意味があり、解釈可能な分類パイプラインを提供する。
CBMは、エンドツーエンドの畳み込みニューラルネットワークと比較して予測性能を犠牲にすることが多い。
- 参考スコア(独自算出の注目度): 2.624902795082451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the context of image classification, Concept Bottleneck Models (CBMs) first embed images into a set of human-understandable concepts, followed by an intrinsically interpretable classifier that predicts labels based on these intermediate representations. While CBMs offer a semantically meaningful and interpretable classification pipeline, they often sacrifice predictive performance compared to end-to-end convolutional neural networks. Moreover, the propagation of uncertainty from concept predictions to final label decisions remains underexplored. In this paper, we propose a novel uncertainty-aware and interpretable classifier for the second stage of CBMs. Our method learns a set of binary class-level concept prototypes and uses the distances between predicted concept vectors and each class prototype as both a classification score and a measure of uncertainty. These prototypes also serve as interpretable classification rules, indicating which concepts should be present in an image to justify a specific class prediction. The proposed framework enhances both interpretability and robustness by enabling conformal prediction for uncertain or outlier inputs based on their deviation from the learned binary class-level concept prototypes.
- Abstract(参考訳): 画像分類の文脈において、Concept Bottleneck Models (CBM) はまずイメージを人間の理解可能な概念のセットに埋め込む。
CBMは意味論的に意味があり解釈可能な分類パイプラインを提供するが、エンドツーエンドの畳み込みニューラルネットワークと比較して予測性能を犠牲にすることが多い。
さらに、概念予測から最終ラベル決定への不確実性の伝播は未解明のままである。
本稿では,CBMの第2段階に対する新しい不確実性認識と解釈可能な分類器を提案する。
提案手法は,2値クラスレベルの概念プロトタイプの集合を学習し,予測された概念ベクトルと各クラスプロトタイプとの距離を,分類スコアと不確実性尺度の両方として利用する。
これらのプロトタイプは解釈可能な分類規則としても機能し、特定のクラス予測を正当化するためにイメージにどの概念が存在するべきかを示す。
提案フレームワークは,学習されたバイナリクラスレベルの概念プロトタイプから逸脱した結果に基づいて,不確実な入力や外れ値の共形予測を可能にすることにより,解釈可能性とロバスト性を両立させる。
関連論文リスト
- Interpretable Hierarchical Concept Reasoning through Attention-Guided Graph Learning [8.464865102100925]
本稿では,階層型概念記憶共振器(H-CMR)を提案する。
H-CMRは最先端のパフォーマンスと一致し、概念やモデルの介入を通じて強い人間との相互作用を可能にする。
論文 参考訳(メタデータ) (2025-06-26T08:56:55Z) - Interpretable 3D Neural Object Volumes for Robust Conceptual Reasoning [68.3379650993108]
CAVE(Concept Aware Volumes for Explanations)は、画像分類における解釈可能性と堅牢性を統一する新しい方向である。
本稿では,概念の空間的整合性を測定する尺度である3次元整合性(3D-C)を提案する。
CAVEは、様々なOOD設定における画像間の一貫性と意味のある概念を発見しながら、競争力のある分類性能を達成する。
論文 参考訳(メタデータ) (2025-03-17T17:55:15Z) - MulCPred: Learning Multi-modal Concepts for Explainable Pedestrian Action Prediction [57.483718822429346]
MulCPredは、トレーニングサンプルで表されるマルチモーダルな概念に基づいて、その予測を説明する。
MulCPredは複数のデータセットとタスクで評価される。
論文 参考訳(メタデータ) (2024-09-14T14:15:28Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - MCPNet: An Interpretable Classifier via Multi-Level Concept Prototypes [24.28807025839685]
我々は、低レベルの特徴の意思決定プロセスに関する洞察が欠如している説明は、完全に忠実でも有用でもないと論じる。
本稿では,クラス認識概念分布(CCD)の損失を通じて,分類目的のマルチレベル概念のプロトタイプ分布を学習・調整する新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2024-04-13T11:13:56Z) - Can we Constrain Concept Bottleneck Models to Learn Semantically Meaningful Input Features? [0.6401548653313325]
概念ボトルネックモデル(CBM)は、人間の定義した概念の集合を最初に予測するため、本質的に解釈可能であるとみなされる。
現在の文献では、概念予測は無関係な入力特徴に依存することが多いことを示唆している。
本稿では,CBMが概念を意味的に意味のある入力特徴にマッピングできることを実証する。
論文 参考訳(メタデータ) (2024-02-01T10:18:43Z) - Causal Unsupervised Semantic Segmentation [60.178274138753174]
教師なしセマンティックセグメンテーションは、人間のラベル付きアノテーションなしで高品質なセマンティックセマンティックセグメンテーションを実現することを目的としている。
本稿では、因果推論からの洞察を活用する新しいフレームワークCAUSE(CAusal Unsupervised Semantic sEgmentation)を提案する。
論文 参考訳(メタデータ) (2023-10-11T10:54:44Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。