論文の概要: Flexible Concept Bottleneck Model
- arxiv url: http://arxiv.org/abs/2511.06678v1
- Date: Mon, 10 Nov 2025 03:50:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.06399
- Title: Flexible Concept Bottleneck Model
- Title(参考訳): フレキシブルコンセプトボトルネックモデル
- Authors: Xingbo Du, Qiantong Dou, Lei Fan, Rui Zhang,
- Abstract要約: 概念ボトルネックモデル(CBM)は、人間の理解可能な概念を予測にマッピングする中間層を導入することで、ニューラルネットワークの解釈性を改善する。
本稿では,フレキシブル・コンセプト・ボトルネック・モデル (FCBM) を提案する。
提案手法は,同数の有効概念を持つ最先端のベースラインに匹敵する精度を実現する。
- 参考スコア(独自算出の注目度): 7.3992593868058245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concept bottleneck models (CBMs) improve neural network interpretability by introducing an intermediate layer that maps human-understandable concepts to predictions. Recent work has explored the use of vision-language models (VLMs) to automate concept selection and annotation. However, existing VLM-based CBMs typically require full model retraining when new concepts are involved, which limits their adaptability and flexibility in real-world scenarios, especially considering the rapid evolution of vision-language foundation models. To address these issues, we propose Flexible Concept Bottleneck Model (FCBM), which supports dynamic concept adaptation, including complete replacement of the original concept set. Specifically, we design a hypernetwork that generates prediction weights based on concept embeddings, allowing seamless integration of new concepts without retraining the entire model. In addition, we introduce a modified sparsemax module with a learnable temperature parameter that dynamically selects the most relevant concepts, enabling the model to focus on the most informative features. Extensive experiments on five public benchmarks demonstrate that our method achieves accuracy comparable to state-of-the-art baselines with a similar number of effective concepts. Moreover, the model generalizes well to unseen concepts with just a single epoch of fine-tuning, demonstrating its strong adaptability and flexibility.
- Abstract(参考訳): 概念ボトルネックモデル(CBM)は、人間の理解可能な概念を予測にマッピングする中間層を導入することで、ニューラルネットワークの解釈性を改善する。
近年,概念選択とアノテーションの自動化に視覚言語モデル (VLM) を用いることが検討されている。
しかしながら、既存のVLMベースのCBMは、新しい概念が関与する場合、特に視覚言語基盤モデルの急速な進化を考慮して、現実のシナリオにおける適応性と柔軟性を制限する完全なモデル再訓練を必要とする。
これらの課題に対処するため,本研究では,フレキシブル・コンセプト・ボトルネック・モデル (FCBM) を提案する。
具体的には、概念埋め込みに基づいて予測重みを生成するハイパーネットワークを設計し、モデル全体をトレーニングすることなく、新しい概念のシームレスな統合を可能にする。
さらに,学習可能な温度パラメータを持つ改良されたスパースマックスモジュールを導入し,最も関連性の高い概念を動的に選択し,最も情報性の高い特徴にフォーカスできるようにする。
5つの公開ベンチマークの大規模な実験により,本手法は最先端のベースラインに匹敵する精度を達成できることを示した。
さらに、モデルは単一の微調整のエポックで目に見えない概念を一般化し、その強い適応性と柔軟性を示す。
関連論文リスト
- Post-hoc Stochastic Concept Bottleneck Models [18.935442650741]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、高レベルな人間の理解可能な概念を通じて対象変数を予測する解釈可能なモデルである。
バックボーンモデルを再学習することなく,概念上の正規分布で事前学習した任意のCBMを増強する軽量な手法であるポストホック概念ボトルネックモデル(PSCBM)を導入する。
その結果,PSCBMは介入下でのCBMよりも優れた性能を示す一方で,スクラッチから類似モデルを再訓練するよりもはるかに効率的であることがわかった。
論文 参考訳(メタデータ) (2025-10-09T13:42:54Z) - Graph Integrated Multimodal Concept Bottleneck Model [24.726638033402747]
MoE-SGTは、Graph TransformerとMixture of Experts (MoE)モジュールを注入する構造でConcept Bottleneck Models (CBM)を拡張するフレームワークである。
我々は,概念間の構造的関係を明示的にモデル化するために,マルチモーダル入力のための回答概念と回答探索グラフを構築した。
MoE-SGTは、複数のデータセット上の他の概念ボトルネックネットワークよりも高い精度を達成する。
論文 参考訳(メタデータ) (2025-10-01T09:18:38Z) - Interpretable Reward Modeling with Active Concept Bottlenecks [54.00085739303773]
本稿では,解釈可能な嗜好学習を可能にする報酬モデリングフレームワークであるConcept Bottleneck Reward Models (CB-RM)を紹介する。
不透明報酬関数に依存する標準的なRLHF法とは異なり、CB-RMは報酬予測を人間の解釈可能な概念に分解する。
我々は,最も情報性の高い概念ラベルを動的に取得する能動的学習戦略を定式化する。
論文 参考訳(メタデータ) (2025-07-07T06:26:04Z) - MVP-CBM:Multi-layer Visual Preference-enhanced Concept Bottleneck Model for Explainable Medical Image Classification [17.91330444111181]
概念ボトルネックモデル(CBM)は、予測と人間の理解可能な概念をリンクすることで、解釈可能性を改善する。
MVP-CBM(Visual Preference-enhanced Concept Bottleneck Model)を提案する。
MVP-CBMは、多層視覚情報を包括的に活用して、より微妙で正確なモデル決定の説明を提供する。
論文 参考訳(メタデータ) (2025-06-14T16:52:04Z) - Towards Better Generalization and Interpretability in Unsupervised Concept-Based Models [9.340843984411137]
本稿では、LCBM(Learningable Concept-Based Model)という、画像分類のための教師なし概念ベースモデルを提案する。
我々はLCBMが既存の教師なし概念ベースモデルを上回る一般化能力を示し、ブラックボックスモデルの性能とほぼ一致することを示した。
概念埋め込みの利用にもかかわらず、我々は概念の局所的な線形結合によるモデル解釈可能性を維持している。
論文 参考訳(メタデータ) (2025-06-02T16:26:41Z) - Mod-Adapter: Tuning-Free and Versatile Multi-concept Personalization via Modulation Adapter [57.49476151976054]
テストタイムの微調整なしにオブジェクトと抽象概念を効果的にカスタマイズできるマルチコンセプトパーソナライズのためのチューニング不要な手法を提案する。
本手法は, 定量的, 質的, 人的評価によって支援された多概念パーソナライゼーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2025-05-24T09:21:32Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Auxiliary Losses for Learning Generalizable Concept-based Models [5.4066453042367435]
コンセプト・ボトルネック・モデル (Concept Bottleneck Models, CBM) は導入以来人気を集めている。
CBMは基本的に、モデルの潜在空間を人間に理解可能な高レベルな概念に制限する。
本稿では,協調型コンセプション・ボトルネックモデル(coop-CBM)を提案し,性能トレードオフを克服する。
論文 参考訳(メタデータ) (2023-11-18T15:50:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。