論文の概要: Concepts' Information Bottleneck Models
- arxiv url: http://arxiv.org/abs/2602.14626v1
- Date: Mon, 16 Feb 2026 10:33:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.369886
- Title: Concepts' Information Bottleneck Models
- Title(参考訳): 概念のインフォメーション・ボトルネックモデル
- Authors: Karim Galliamov, Syed M Ahsan Kazmi, Adil Khan, Adín Ramírez Rivera,
- Abstract要約: 概念ボトルネックモデル(Concept Bottleneck Models、CBM)は、人間の理解可能な概念層を通じて決定をルーティングすることで解釈可能な予測を提供することを目的としている。
I(C;Y)$でタスク関連情報を保存しながら$I(X;C)$をペナライズする概念層上に、明示的なInformation Bottleneck正規化器を導入し、最小限のコンセプト表現を奨励する。
- 参考スコア(独自算出の注目度): 9.435622803973898
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Concept Bottleneck Models (CBMs) aim to deliver interpretable predictions by routing decisions through a human-understandable concept layer, yet they often suffer reduced accuracy and concept leakage that undermines faithfulness. We introduce an explicit Information Bottleneck regularizer on the concept layer that penalizes $I(X;C)$ while preserving task-relevant information in $I(C;Y)$, encouraging minimal-sufficient concept representations. We derive two practical variants (a variational objective and an entropy-based surrogate) and integrate them into standard CBM training without architectural changes or additional supervision. Evaluated across six CBM families and three benchmarks, the IB-regularized models consistently outperform their vanilla counterparts. Information-plane analyses further corroborate the intended behavior. These results indicate that enforcing a minimal-sufficient concept bottleneck improves both predictive performance and the reliability of concept-level interventions. The proposed regularizer offers a theoretic-grounded, architecture-agnostic path to more faithful and intervenable CBMs, resolving prior evaluation inconsistencies by aligning training protocols and demonstrating robust gains across model families and datasets.
- Abstract(参考訳): 概念ボトルネックモデル(CBM)は、人間の理解できない概念層を通じて決定をルーティングすることで解釈可能な予測を提供することを目的としている。
I(C;Y)$でタスク関連情報を保存しながら$I(X;C)$をペナライズする概念層上に、明示的なInformation Bottleneck正規化器を導入し、最小限のコンセプト表現を奨励する。
我々は,2つの実用的変種(変分目的とエントロピーに基づくサロゲート)を導出し,それらをアーキテクチャの変更や追加の監督なしに標準的なCBMトレーニングに統合する。
6つのCBMファミリーと3つのベンチマークで評価され、IB正規化モデルはバニラモデルよりも一貫して優れていた。
情報平面解析は、意図した振る舞いをさらに腐食させる。
これらの結果は,最小限のコンセプトボトルネックを実施すれば,予測性能と概念レベルの介入の信頼性が向上することを示している。
提案された正則化器は、より忠実で断続的なCBMに対して、理論的な地上のアーキテクチャに依存しないパスを提供し、トレーニングプロトコルを整列させ、モデルファミリやデータセット間で堅牢なゲインを示すことによって、事前評価の不整合を解消する。
関連論文リスト
- Controllable Concept Bottleneck Models [55.03639763625018]
制御可能な概念ボトルネックモデル(CCBM)
CCBMは、概念ラベルレベル、概念レベル、データレベルという3つのモデル編集の粒度をサポートする。
CCBMは、数学的に厳密な閉形式近似を享受し、再訓練の必要性を和らげる影響関数から導かれる。
論文 参考訳(メタデータ) (2026-01-01T19:30:06Z) - Towards more holistic interpretability: A lightweight disentangled Concept Bottleneck Model [5.700536552863068]
概念ボトルネックモデル(CBM)は、人間の理解可能な概念を中間表現として予測することにより、解釈可能性を高める。
本稿では,視覚的特徴を意味論的に意味のある構成要素に自動的に分類する軽量なDECBMを提案する。
3つの多様なデータセットの実験により、LCDBMはより高い概念とクラス精度を達成し、解釈可能性と分類性能の両方において従来のCBMよりも優れていたことが示されている。
論文 参考訳(メタデータ) (2025-10-17T15:59:30Z) - Interpretable Reward Modeling with Active Concept Bottlenecks [54.00085739303773]
本稿では,解釈可能な嗜好学習を可能にする報酬モデリングフレームワークであるConcept Bottleneck Reward Models (CB-RM)を紹介する。
不透明報酬関数に依存する標準的なRLHF法とは異なり、CB-RMは報酬予測を人間の解釈可能な概念に分解する。
我々は,最も情報性の高い概念ラベルを動的に取得する能動的学習戦略を定式化する。
論文 参考訳(メタデータ) (2025-07-07T06:26:04Z) - Interpretable Few-Shot Image Classification via Prototypical Concept-Guided Mixture of LoRA Experts [79.18608192761512]
自己説明可能なモデル(SEM)は、視覚認識プロセスをより解釈可能なものにするために、プロトタイプ概念学習(PCL)に依存している。
パラメトリック不均衡と表現の不整合という2つの重要な課題を緩和するFew-Shotプロトタイプ概念分類フレームワークを提案する。
我々のアプローチは、既存のSEMを顕著な差で常に上回っており、5-way 5-shot分類では4.2%-8.7%の相対的な利得がある。
論文 参考訳(メタデータ) (2025-06-05T06:39:43Z) - Addressing Concept Mislabeling in Concept Bottleneck Models Through Preference Optimization [8.368983263620889]
概念ボトルネックモデル(Concept Bottleneck Models, CBM)は、AIシステムの信頼性を高めるために、人間に理解可能な一連の概念に決定を拘束することを提案する。
CBMは通常、データセットには正確な概念ラベルが含まれており、性能を著しく低下させる可能性があると仮定する。
本稿では,概念選好最適化(Concept Preference Optimization, CPO)の目的について紹介する。
論文 参考訳(メタデータ) (2025-04-25T02:43:10Z) - Leakage and Interpretability in Concept-Based Models [0.24466725954625887]
概念ボトルネックモデルは、高レベルの中間概念を予測することによって解釈可能性を改善することを目的としている。
それらは情報漏洩に悩まされ、学習された概念の中で符号化された意図しない情報を利用するモデルで知られている。
漏洩を厳格に特徴づけ定量化するための情報理論フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-18T22:21:06Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。