論文の概要: Post-hoc Stochastic Concept Bottleneck Models
- arxiv url: http://arxiv.org/abs/2510.08219v1
- Date: Thu, 09 Oct 2025 13:42:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.102085
- Title: Post-hoc Stochastic Concept Bottleneck Models
- Title(参考訳): ポストホック確率的概念ボトルネックモデル
- Authors: Wiktor Jan Hoffmann, Sonia Laguna, Moritz Vandenhirtz, Emanuele Palumbo, Julia E. Vogt,
- Abstract要約: 概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、高レベルな人間の理解可能な概念を通じて対象変数を予測する解釈可能なモデルである。
バックボーンモデルを再学習することなく,概念上の正規分布で事前学習した任意のCBMを増強する軽量な手法であるポストホック概念ボトルネックモデル(PSCBM)を導入する。
その結果,PSCBMは介入下でのCBMよりも優れた性能を示す一方で,スクラッチから類似モデルを再訓練するよりもはるかに効率的であることがわかった。
- 参考スコア(独自算出の注目度): 18.935442650741
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Concept Bottleneck Models (CBMs) are interpretable models that predict the target variable through high-level human-understandable concepts, allowing users to intervene on mispredicted concepts to adjust the final output. While recent work has shown that modeling dependencies between concepts can improve CBM performance, especially under interventions, such approaches typically require retraining the entire model, which may be infeasible when access to the original data or compute is limited. In this paper, we introduce Post-hoc Stochastic Concept Bottleneck Models (PSCBMs), a lightweight method that augments any pre-trained CBM with a multivariate normal distribution over concepts by adding only a small covariance-prediction module, without retraining the backbone model. We propose two training strategies and show on real-world data that PSCBMs consistently match or improve both concept and target accuracy over standard CBMs at test time. Furthermore, we show that due to the modeling of concept dependencies, PSCBMs perform much better than CBMs under interventions, while remaining far more efficient than retraining a similar stochastic model from scratch.
- Abstract(参考訳): 概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、高いレベルの人間に理解可能な概念を通じてターゲット変数を予測する解釈可能なモデルであり、ユーザーが予測された概念に介入して最終的な出力を調整することができる。
近年の研究では、特に介入の下では、概念間の依存関係のモデリングがCBMのパフォーマンスを改善することが示されているが、そのようなアプローチは、通常、モデル全体を再トレーニングする必要がある。
本稿では,ポストホック確率論的概念ボトルネックモデル (PSCBM) を紹介する。これは,バックボーンモデルを再学習することなく,小さな共分散予測モジュールのみを追加することで,概念上の多変量正規分布で事前学習されたCBMを拡張できる軽量な手法である。
本研究では,PSCBMがテスト時に標準CBMよりも概念と目標の精度を常に一致または改善する実世界データを示す2つのトレーニング戦略を提案する。
さらに,概念依存のモデル化により,PSCBMは介入下でのCBMよりもはるかに優れた性能を示す一方で,類似の確率モデルをゼロから再訓練するよりもはるかに効率的であることを示す。
関連論文リスト
- Constructing Concept-based Models to Mitigate Spurious Correlations with Minimal Human Effort [31.992947353231564]
概念ボトルネックモデル(Concept Bottleneck Models, CBM)は、人間の理解可能な概念を通じて、モデルの振る舞いを開示し、導くための原則的な方法を提供する。
本稿では,これらのバイアスに無害でありながら事前学習モデルを活用するために設計された新しいフレームワークを提案する。
提案手法を複数のデータセット上で評価し,その解釈可能性を維持しつつ,素粒子相関によるモデル依存の低減効果を示した。
論文 参考訳(メタデータ) (2024-07-12T03:07:28Z) - Stochastic Concept Bottleneck Models [8.391254800873599]
概念ボトルネックモデル(CBM)は、人間の理解可能な概念に基づいて最終的な予測を行う有望な解釈可能な手法として登場した。
本稿では,概念の依存関係をモデル化する新しいアプローチであるConcept Bottleneck Models (SCBM)を提案する。
単一概念の介入はすべての関係する概念に影響を与え、介入の有効性を向上させる。
論文 参考訳(メタデータ) (2024-06-27T15:38:37Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Learning to Receive Help: Intervention-Aware Concept Embedding Models [44.1307928713715]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、高レベルの概念セットを使用して予測を構築し、説明することによって、ニューラルネットワークの不透明さに対処する。
近年の研究では、介入効果は概念が介入される順序に大きく依存していることが示されている。
IntCEM(Intervention-Aware Concept Embedding Model)は,テスト時間介入に対するモデルの受容性を改善する新しいCBMアーキテクチャとトレーニングパラダイムである。
論文 参考訳(メタデータ) (2023-09-29T02:04:24Z) - Predictable MDP Abstraction for Unsupervised Model-Based RL [93.91375268580806]
予測可能なMDP抽象化(PMA)を提案する。
元のMDPで予測モデルを訓練する代わりに、学習されたアクション空間を持つ変換MDPでモデルを訓練する。
我々はPMAを理論的に解析し、PMAが以前の教師なしモデルベースRLアプローチよりも大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-02-08T07:37:51Z) - Post-hoc Concept Bottleneck Models [11.358495577593441]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、入力を解釈可能な概念のセットにマッピングし、その概念を用いて予測を行う。
CBMは、ボトルネックを学ぶためにトレーニングデータに概念ラベルを必要とするため、実際には制限があり、強い事前訓練されたモデルを活用しない。
解釈可能性の利点を保ちながら、モデル性能を犠牲にすることなく、任意のニューラルネットワークをPCBMに変換することができることを示す。
論文 参考訳(メタデータ) (2022-05-31T00:29:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。