論文の概要: Learning Concept Bottleneck Models from Mechanistic Explanations
- arxiv url: http://arxiv.org/abs/2603.07343v1
- Date: Sat, 07 Mar 2026 21:09:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:14.310899
- Title: Learning Concept Bottleneck Models from Mechanistic Explanations
- Title(参考訳): 機械的説明から概念ボトルネックモデルを学ぶ
- Authors: Antonio De Santis, Schrasing Tong, Marco Brambilla, Lalana Kagal,
- Abstract要約: 概念ボトルネックモデル(Concept Bottleneck Models, CBM)は、決定の前に解釈可能な概念を予測するボトルネックレイヤを学習することで、ホットな解釈可能性を目指す。
メカニスティックCBMはブラックボックスモデルの学習概念から直接ボトルネックを構築する。
M-CBMは, 一致した間隔で, 先行のCBMを常に上回っていることを示す。
- 参考スコア(独自算出の注目度): 4.071515891039002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Concept Bottleneck Models (CBMs) aim for ante-hoc interpretability by learning a bottleneck layer that predicts interpretable concepts before the decision. State-of-the-art approaches typically select which concepts to learn via human specification, open knowledge graphs, prompting an LLM, or using general CLIP concepts. However, concepts defined a-priori may not have sufficient predictive power for the task or even be learnable from the available data. As a result, these CBMs often significantly trail their black-box counterpart when controlling for information leakage. To address this, we introduce a novel CBM pipeline named Mechanistic CBM (M-CBM), which builds the bottleneck directly from a black-box model's own learned concepts. These concepts are extracted via Sparse Autoencoders (SAEs) and subsequently named and annotated on a selected subset of images using a Multimodal LLM. For fair comparison and leakage control, we also introduce the Number of Contributing Concepts (NCC), a decision-level sparsity metric that extends the recently proposed NEC metric. Across diverse datasets, we show that M-CBMs consistently surpass prior CBMs at matched sparsity, while improving concept predictions and providing concise explanations. Our code is available at https://github.com/Antonio-Dee/M-CBM.
- Abstract(参考訳): 概念ボトルネックモデル(Concept Bottleneck Models、CBM)は、決定の前に解釈可能な概念を予測するボトルネックレイヤを学習することで、ホットな解釈可能性を目指している。
最先端のアプローチは一般的に、人間の仕様、知識グラフのオープン、LLMのプロンプト、一般的なCLIPの概念の使用を通じて、どの概念を学ぶかを選択する。
しかし、a-prioriの定義した概念は、タスクに十分な予測力を持っていないかもしれないし、利用可能なデータから学べないかもしれない。
結果として、これらのCBMは情報漏洩を制御する際にブラックボックスをかなり追尾することが多い。
そこで我々は,ブラックボックスモデルの学習概念から直接ボトルネックを構築する,Mechanistic CBM (M-CBM) という新しいCBMパイプラインを導入する。
これらの概念はスパースオートエンコーダ(SAE)を介して抽出され、その後、Multimodal LLMを用いて選択された画像のサブセットに命名および注釈付けされる。
公平な比較とリーク制御のために、最近提案されたNEC尺度を拡張した決定レベルの空間性尺度であるNCC(Number of Contributing Concepts)も導入する。
多様なデータセットを通して,M-CBMは,概念予測を改善し,簡潔な説明を提供するとともに,一致した間隔で従来型CBMを一貫して上回っていることを示す。
私たちのコードはhttps://github.com/Antonio-Dee/M-CBMで利用可能です。
関連論文リスト
- Rethinking Concept Bottleneck Models: From Pitfalls to Solutions [53.84388497227224]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念の基底予測である。
CBM-Suiteはこれらの課題に対処するための方法論的なフレームワークである。
論文 参考訳(メタデータ) (2026-03-05T19:37:49Z) - Controllable Concept Bottleneck Models [55.03639763625018]
制御可能な概念ボトルネックモデル(CCBM)
CCBMは、概念ラベルレベル、概念レベル、データレベルという3つのモデル編集の粒度をサポートする。
CCBMは、数学的に厳密な閉形式近似を享受し、再訓練の必要性を和らげる影響関数から導かれる。
論文 参考訳(メタデータ) (2026-01-01T19:30:06Z) - Concept-Aware Batch Sampling Improves Language-Image Pretraining [78.53540190580189]
Concept-Aware Batch Smpling (CABS)は、バッチをオンザフライで柔軟に構築する、シンプルで効果的なバッチサンプリングフレームワークである。
CABSはCLIP/SigLIPモデルクラスに有益であり,高性能なモデルが得られることを示す。
全体として、CABSはプロプライエタリなオンラインデータキュレーションアルゴリズムに代わる強力なオープンソースである。
論文 参考訳(メタデータ) (2025-11-25T18:58:07Z) - Explain via Any Concept: Concept Bottleneck Model with Open Vocabulary Concepts [8.028021897214238]
OpenCBMはオープン語彙の概念を持つ最初のCBMである。
ベンチマークデータセットCUB-200-2011の分類精度は,従来のCBMよりも9%向上した。
論文 参考訳(メタデータ) (2024-08-05T06:42:00Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Sparse Concept Bottleneck Models: Gumbel Tricks in Contrastive Learning [86.15009879251386]
概念ボトルネックモデル(CBM)を用いた新しいアーキテクチャと説明可能な分類法を提案する。
CBMには、さらなる概念のセットが必要である。
CLIPをベースとしたボトルネックモデルにおいて,スパース隠れ層を用いた精度の大幅な向上を示す。
論文 参考訳(メタデータ) (2024-04-04T09:43:43Z) - Eliminating Information Leakage in Hard Concept Bottleneck Models with
Supervised, Hierarchical Concept Learning [17.982131928413096]
概念ボトルネックモデル(Concept Bottleneck Models、CBM)は、人間の理解できない概念で特徴やラベルをブリッジすることで、解釈可能で介入可能な予測を提供することを目的としている。
CBMは情報漏洩に悩まされ、概念以外の意図しない情報がその後のラベル予測にリークされる。
本稿では,CBMの新たなパラダイム,すなわちSupCBMを提案する。
論文 参考訳(メタデータ) (2024-02-03T03:50:58Z) - Post-hoc Concept Bottleneck Models [11.358495577593441]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、入力を解釈可能な概念のセットにマッピングし、その概念を用いて予測を行う。
CBMは、ボトルネックを学ぶためにトレーニングデータに概念ラベルを必要とするため、実際には制限があり、強い事前訓練されたモデルを活用しない。
解釈可能性の利点を保ちながら、モデル性能を犠牲にすることなく、任意のニューラルネットワークをPCBMに変換することができることを示す。
論文 参考訳(メタデータ) (2022-05-31T00:29:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。