論文の概要: Partially Shared Concept Bottleneck Models
- arxiv url: http://arxiv.org/abs/2511.22170v1
- Date: Thu, 27 Nov 2025 07:15:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.436883
- Title: Partially Shared Concept Bottleneck Models
- Title(参考訳): 部分共有概念ボトルネックモデル
- Authors: Delong Zhao, Qiang Huang, Di Yan, Yiqun Sun, Jun Yu,
- Abstract要約: 概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、入力と予測の間に人間の理解可能な概念の層を導入することにより、解釈可能性を高める。
大規模言語モデル(LLM)と視覚言語モデル(VLM)を用いた概念生成の自動化手法
3つのコアコンポーネントを通じてこれらの制限に対処する部分共有CBMフレームワークであるPS-CBMを紹介する。
- 参考スコア(独自算出の注目度): 15.871749983667229
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Concept Bottleneck Models (CBMs) enhance interpretability by introducing a layer of human-understandable concepts between inputs and predictions. While recent methods automate concept generation using Large Language Models (LLMs) and Vision-Language Models (VLMs), they still face three fundamental challenges: poor visual grounding, concept redundancy, and the absence of principled metrics to balance predictive accuracy and concept compactness. We introduce PS-CBM, a Partially Shared CBM framework that addresses these limitations through three core components: (1) a multimodal concept generator that integrates LLM-derived semantics with exemplar-based visual cues; (2) a Partially Shared Concept Strategy that merges concepts based on activation patterns to balance specificity and compactness; and (3) Concept-Efficient Accuracy (CEA), a post-hoc metric that jointly captures both predictive accuracy and concept compactness. Extensive experiments on eleven diverse datasets show that PS-CBM consistently outperforms state-of-the-art CBMs, improving classification accuracy by 1.0%-7.4% and CEA by 2.0%-9.5%, while requiring significantly fewer concepts. These results underscore PS-CBM's effectiveness in achieving both high accuracy and strong interpretability.
- Abstract(参考訳): 概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、入力と予測の間に人間の理解可能な概念の層を導入することにより、解釈可能性を高める。
近年の手法では,Large Language Models (LLMs) と Vision-Language Models (VLMs) を用いた概念生成が自動化されている。
我々は,これらの制約に対処する部分共有CBMフレームワークであるPS-CBMを紹介した。(1)LLM由来のセマンティクスと模範的な視覚的手がかりを統合したマルチモーダル概念生成,(2)アクティベーションパターンに基づく概念をマージして,特異性とコンパクト性のバランスをとる部分共有コンセプト戦略,(3)予測精度と概念コンパクト性を両立するポストホック計量である概念効率精度(CEA)である。
11種類の多様なデータセットに対する大規模な実験により、PS-CBMは最先端のCBMよりも一貫して優れており、分類精度は1.0%-7.4%、CEAは2.0%-9.5%向上し、概念は大幅に少ない。
これらの結果は,PS-CBMの精度と高い解釈性の両方を達成する上での有効性を裏付けるものである。
関連論文リスト
- Concept-Aware Batch Sampling Improves Language-Image Pretraining [78.53540190580189]
Concept-Aware Batch Smpling (CABS)は、バッチをオンザフライで柔軟に構築する、シンプルで効果的なバッチサンプリングフレームワークである。
CABSはCLIP/SigLIPモデルクラスに有益であり,高性能なモデルが得られることを示す。
全体として、CABSはプロプライエタリなオンラインデータキュレーションアルゴリズムに代わる強力なオープンソースである。
論文 参考訳(メタデータ) (2025-11-25T18:58:07Z) - Towards more holistic interpretability: A lightweight disentangled Concept Bottleneck Model [5.700536552863068]
概念ボトルネックモデル(CBM)は、人間の理解可能な概念を中間表現として予測することにより、解釈可能性を高める。
本稿では,視覚的特徴を意味論的に意味のある構成要素に自動的に分類する軽量なDECBMを提案する。
3つの多様なデータセットの実験により、LCDBMはより高い概念とクラス精度を達成し、解釈可能性と分類性能の両方において従来のCBMよりも優れていたことが示されている。
論文 参考訳(メタデータ) (2025-10-17T15:59:30Z) - Interpretable Reward Modeling with Active Concept Bottlenecks [54.00085739303773]
本稿では,解釈可能な嗜好学習を可能にする報酬モデリングフレームワークであるConcept Bottleneck Reward Models (CB-RM)を紹介する。
不透明報酬関数に依存する標準的なRLHF法とは異なり、CB-RMは報酬予測を人間の解釈可能な概念に分解する。
我々は,最も情報性の高い概念ラベルを動的に取得する能動的学習戦略を定式化する。
論文 参考訳(メタデータ) (2025-07-07T06:26:04Z) - Interpretable Few-Shot Image Classification via Prototypical Concept-Guided Mixture of LoRA Experts [79.18608192761512]
自己説明可能なモデル(SEM)は、視覚認識プロセスをより解釈可能なものにするために、プロトタイプ概念学習(PCL)に依存している。
パラメトリック不均衡と表現の不整合という2つの重要な課題を緩和するFew-Shotプロトタイプ概念分類フレームワークを提案する。
我々のアプローチは、既存のSEMを顕著な差で常に上回っており、5-way 5-shot分類では4.2%-8.7%の相対的な利得がある。
論文 参考訳(メタデータ) (2025-06-05T06:39:43Z) - Enhancing Interpretable Image Classification Through LLM Agents and Conditional Concept Bottleneck Models [15.97013792698305]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、画像分類を解釈可能で人間可読な概念によって管理されるプロセスに分解する。
環境フィードバックに応答してコンセプトバンクを調整する動的エージェントベースのアプローチを導入する。
また,従来のCBMの概念スコアリング機構の限界を克服するために,条件付き概念ボトルネックモデル(CoCoBM)を提案する。
論文 参考訳(メタデータ) (2025-06-02T05:25:52Z) - Towards Achieving Concept Completeness for Textual Concept Bottleneck Models [0.3694429692322631]
本稿では,小さな言語モデルを用いて,概念ラベルを教師なしで構築する新しいTCBMジェネレータを提案する。
CT-CBMは、完全に概念ベースを作成するために、ボトルネック層において重要かつ識別可能な概念を反復的にターゲットし、追加する。
CT-CBMは、概念ベースと概念検出精度の点で競合相手に対して顕著な結果を得る。
論文 参考訳(メタデータ) (2025-02-16T12:28:43Z) - Towards Robust and Reliable Concept Representations: Reliability-Enhanced Concept Embedding Model [22.865870813626316]
概念ボトルネックモデル(Concept Bottleneck Models, CBM)は、人間の理解可能な概念を意思決定の中間体として予測することにより、解釈可能性を高めることを目的としている。
概念に関係のない特徴に対する感受性と、異なるサンプルの同じ概念に対する意味的一貫性の欠如である。
本稿では,Reliability-Enhanced Concept Embedding Model (RECEM) を提案する。Reliability-Enhanced Concept Embedding Model (RECEM) は2つの戦略を導入する。
論文 参考訳(メタデータ) (2025-02-03T09:29:39Z) - EQ-CBM: A Probabilistic Concept Bottleneck with Energy-based Models and Quantized Vectors [4.481898130085069]
概念ボトルネックモデル(CBM)は、人間の理解可能な概念を活用して解釈可能性を高める効果的なアプローチとして注目されている。
既存のCBMは、決定論的概念の符号化と一貫性のない概念への依存によって問題に直面し、不正確な結果となった。
本稿では,確率論的概念エンコーディングによりCBMを強化する新しいフレームワークであるEQ-CBMを提案する。
論文 参考訳(メタデータ) (2024-09-22T23:43:45Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Generalized Unbiased Scene Graph Generation [85.22334551067617]
一般化Unbiased Scene Graph Generation (G-USGG)は、述語レベルと概念レベルの不均衡を考慮に入れている。
本稿では,まれ/非一般的/共通概念間のバランスの取れた学習プロセスを確実にするマルチコンセプト学習(MCL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-09T08:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。