論文の概要: SL-CBM: Enhancing Concept Bottleneck Models with Semantic Locality for Better Interpretability
- arxiv url: http://arxiv.org/abs/2601.12804v1
- Date: Mon, 19 Jan 2026 08:05:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.797632
- Title: SL-CBM: Enhancing Concept Bottleneck Models with Semantic Locality for Better Interpretability
- Title(参考訳): SL-CBM:理解可能性向上のための意味的局所性を考慮した概念ボトルネックモデルの実現
- Authors: Hanwei Zhang, Luo Cheng, Rui Wen, Yang Zhang, Lijun Zhang, Holger Hermanns,
- Abstract要約: 概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念を明示的にモデル化することによって、解釈可能な概念レベルの説明を提供する。
既存のCBMは、しばしば地域性の忠実さに悩まされ、空間的に概念を意味のある画像領域と整合させることができなかった。
SL-CBM (CBM with Semantic Locality) は,空間的に整合した空力マップを概念とクラスレベルで生成し,局所性に忠実さを強制する新しい拡張である。
- 参考スコア(独自算出の注目度): 15.926410296705583
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable AI (XAI) is crucial for building transparent and trustworthy machine learning systems, especially in high-stakes domains. Concept Bottleneck Models (CBMs) have emerged as a promising ante-hoc approach that provides interpretable, concept-level explanations by explicitly modeling human-understandable concepts. However, existing CBMs often suffer from poor locality faithfulness, failing to spatially align concepts with meaningful image regions, which limits their interpretability and reliability. In this work, we propose SL-CBM (CBM with Semantic Locality), a novel extension that enforces locality faithfulness by generating spatially coherent saliency maps at both concept and class levels. SL-CBM integrates a 1x1 convolutional layer with a cross-attention mechanism to enhance alignment between concepts, image regions, and final predictions. Unlike prior methods, SL-CBM produces faithful saliency maps inherently tied to the model's internal reasoning, facilitating more effective debugging and intervention. Extensive experiments on image datasets demonstrate that SL-CBM substantially improves locality faithfulness, explanation quality, and intervention efficacy while maintaining competitive classification accuracy. Our ablation studies highlight the importance of contrastive and entropy-based regularization for balancing accuracy, sparsity, and faithfulness. Overall, SL-CBM bridges the gap between concept-based reasoning and spatial explainability, setting a new standard for interpretable and trustworthy concept-based models.
- Abstract(参考訳): 説明可能なAI(XAI)は、特に高い領域において、透明で信頼性の高い機械学習システムを構築するために不可欠である。
概念ボトルネックモデル(Concept Bottleneck Models, CBM)は、人間の理解可能な概念を明示的にモデル化することによって、解釈可能な概念レベルの説明を提供する、有望なアンテホックなアプローチとして登場した。
しかし、既存のCBMは、しばしば、地域性への忠実さの欠如に悩まされ、概念を意味のある画像領域と空間的に整合させることができず、解釈可能性と信頼性が制限される。
本研究では,概念とクラスレベルで空間的に整合したサリエンシマップを生成することで,局所性忠実性を実現する新しい拡張であるSL-CBM(CBM with Semantic Locality)を提案する。
SL-CBMは1x1畳み込み層とクロスアテンション機構を統合し、概念、画像領域、最終的な予測の整合性を高める。
従来の方法とは異なり、SL-CBMはモデルの内部推論と本質的に結びついており、より効率的なデバッグと介入を容易にする。
画像データセットに対する大規模な実験により、SL-CBMは、競合する分類精度を維持しながら、局所性忠実性、説明品質、介入効果を大幅に改善することが示された。
我々のアブレーション研究は、正確さ、疎さ、忠実さのバランスをとるために、コントラストとエントロピーに基づく正規化の重要性を強調している。
全体として、SL-CBMは概念ベースの推論と空間的説明可能性のギャップを埋め、解釈可能で信頼性の高い概念ベースのモデルのための新しい標準を設定している。
関連論文リスト
- Partially Shared Concept Bottleneck Models [15.871749983667229]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、入力と予測の間に人間の理解可能な概念の層を導入することにより、解釈可能性を高める。
大規模言語モデル(LLM)と視覚言語モデル(VLM)を用いた概念生成の自動化手法
3つのコアコンポーネントを通じてこれらの制限に対処する部分共有CBMフレームワークであるPS-CBMを紹介する。
論文 参考訳(メタデータ) (2025-11-27T07:15:15Z) - LTD-Bench: Evaluating Large Language Models by Letting Them Draw [57.237152905238084]
LTD-Benchは、大規模言語モデル(LLM)のブレークスルーベンチマークである。
LLMの評価を抽象的なスコアから直接観察可能な視覚出力に変換する。
LTD-Benchの視覚出力は強力な診断分析を可能にし、モデル類似性を調べるための潜在的アプローチを提供する。
論文 参考訳(メタデータ) (2025-11-04T08:11:23Z) - Towards more holistic interpretability: A lightweight disentangled Concept Bottleneck Model [5.700536552863068]
概念ボトルネックモデル(CBM)は、人間の理解可能な概念を中間表現として予測することにより、解釈可能性を高める。
本稿では,視覚的特徴を意味論的に意味のある構成要素に自動的に分類する軽量なDECBMを提案する。
3つの多様なデータセットの実験により、LCDBMはより高い概念とクラス精度を達成し、解釈可能性と分類性能の両方において従来のCBMよりも優れていたことが示されている。
論文 参考訳(メタデータ) (2025-10-17T15:59:30Z) - FACE: Faithful Automatic Concept Extraction [4.417419748257645]
FACE(Faithful Automatic Concept extract)は、KL(Kullback-Leibler)の発散正規化項で非負行列因子化(NMF)を強化する新しいフレームワークである。
我々は,KL分散の最小化が予測分布の偏差を制限し,学習された概念空間における忠実な局所線型性を促進することを理論的保証する。
論文 参考訳(メタデータ) (2025-10-13T17:44:45Z) - From Segments to Concepts: Interpretable Image Classification via Concept-Guided Segmentation [21.421373394306837]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の解釈可能な概念を推論することで透明性を向上させることを目的としている。
本稿では,概念誘導画像セグメンテーションを注目型マルチインスタンス学習フレームワークに統合する新しいフレームワークSEG-MIL-CBMを提案する。
意味論的に意味のある領域を高レベルな概念に合わせることによって,タスク関連証拠,非関連な重み付け,空間的基盤のある概念レベルの説明を生成する。
論文 参考訳(メタデータ) (2025-10-05T12:48:43Z) - CTRLS: Chain-of-Thought Reasoning via Latent State-Transition [57.51370433303236]
チェーン・オブ・シント(CoT)推論は、大規模な言語モデルで複雑な問題を解釈可能な中間ステップに分解することを可能にする。
我々は,遅延状態遷移を伴うマルコフ決定プロセス(MDP)としてCoT推論を定式化するフレームワークであるgroundingSを紹介する。
我々は、ベンチマーク推論タスクにおける推論精度、多様性、探索効率の改善を示す。
論文 参考訳(メタデータ) (2025-07-10T21:32:18Z) - Interpretable Few-Shot Image Classification via Prototypical Concept-Guided Mixture of LoRA Experts [79.18608192761512]
自己説明可能なモデル(SEM)は、視覚認識プロセスをより解釈可能なものにするために、プロトタイプ概念学習(PCL)に依存している。
パラメトリック不均衡と表現の不整合という2つの重要な課題を緩和するFew-Shotプロトタイプ概念分類フレームワークを提案する。
我々のアプローチは、既存のSEMを顕著な差で常に上回っており、5-way 5-shot分類では4.2%-8.7%の相対的な利得がある。
論文 参考訳(メタデータ) (2025-06-05T06:39:43Z) - InterLCM: Low-Quality Images as Intermediate States of Latent Consistency Models for Effective Blind Face Restoration [106.70903819362402]
拡散前駆体は、低画質画像の復元のために、復元データセットの微細調整拡散モデル(DM)によってブラインドフェイス復元(BFR)に使用されている。
我々は,その優れたセマンティック一貫性と効率のために潜在一貫性モデル(LCM)を活用するために,InterLCMを提案する。
InterLCMは、合成データセットと実世界のデータセットの両方において既存のアプローチより優れており、推論速度も高速である。
論文 参考訳(メタデータ) (2025-02-04T10:51:20Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Sparse Linear Concept Discovery Models [11.138948381367133]
概念ボトルネックモデル(Concept Bottleneck Models, CBM)は、隠蔽層が人間の理解可能な概念に結びついている一般的なアプローチである。
本稿では,Contrastive Language Imageモデルと単一スパース線形層に基づく,シンプルかつ直感的に解釈可能なフレームワークを提案する。
実験により、我々のフレームワークは、最近のCBMアプローチを精度的に上回るだけでなく、一例あたりの疎度も高いことを示す。
論文 参考訳(メタデータ) (2023-08-21T15:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。