論文の概要: Chat-CBM: Towards Interactive Concept Bottleneck Models with Frozen Large Language Models
- arxiv url: http://arxiv.org/abs/2509.17522v1
- Date: Mon, 22 Sep 2025 08:48:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.306629
- Title: Chat-CBM: Towards Interactive Concept Bottleneck Models with Frozen Large Language Models
- Title(参考訳): Chat-CBM: 凍結型大規模言語モデルを用いた対話型概念ボトルネックモデルを目指して
- Authors: Hangzhou He, Lei Zhu, Kaiwen Li, Xinliang Zhang, Jiakui Hu, Ourui Fu, Zhengjian Yao, Yanye Lu,
- Abstract要約: 概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、まず人間の理解可能な概念のセットを予測し、それらをラベルにマッピングすることで、固有の解釈性を提供する。
Chat-CBMはスコアベースの分類器を言語ベースの分類器に置き換える。
Chat-CBMは、CBMの解釈可能性を維持しつつ、概念修正、概念の追加または削除、外部知識の取り込み、高レベルの推論ガイダンスなど、より豊かで直感的な介入を可能にしている。
- 参考スコア(独自算出の注目度): 27.557891548828902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concept Bottleneck Models (CBMs) provide inherent interpretability by first predicting a set of human-understandable concepts and then mapping them to labels through a simple classifier. While users can intervene in the concept space to improve predictions, traditional CBMs typically employ a fixed linear classifier over concept scores, which restricts interventions to manual value adjustments and prevents the incorporation of new concepts or domain knowledge at test time. These limitations are particularly severe in unsupervised CBMs, where concept activations are often noisy and densely activated, making user interventions ineffective. We introduce Chat-CBM, which replaces score-based classifiers with a language-based classifier that reasons directly over concept semantics. By grounding prediction in the semantic space of concepts, Chat-CBM preserves the interpretability of CBMs while enabling richer and more intuitive interventions, such as concept correction, addition or removal of concepts, incorporation of external knowledge, and high-level reasoning guidance. Leveraging the language understanding and few-shot capabilities of frozen large language models, Chat-CBM extends the intervention interface of CBMs beyond numerical editing and remains effective even in unsupervised settings. Experiments on nine datasets demonstrate that Chat-CBM achieves higher predictive performance and substantially improves user interactivity while maintaining the concept-based interpretability of CBMs.
- Abstract(参考訳): 概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、まず人間の理解可能な概念のセットを予測し、簡単な分類器を通してラベルにマッピングすることで、固有の解釈性を提供する。
ユーザーは予測を改善するために概念空間に介入できるが、従来のCBMでは、手動の値調整への介入を制限し、テスト時に新しい概念やドメイン知識が組み込まれるのを防ぐ、概念スコアよりも固定線形分類器を用いるのが一般的である。
これらの制限は非教師なしのCBMでは特に深刻で、概念のアクティベーションはしばしばノイズが多く、密に活性化され、ユーザの介入が効果的でない。
そこで我々はChat-CBMを導入し、スコアベースの分類器を言語ベースの分類器に置き換える。
概念のセマンティック空間における予測を基礎として、Chat-CBMはCBMの解釈可能性を維持しつつ、概念の修正、概念の追加または削除、外部知識の取り込み、高レベルの推論ガイダンスなどのより豊かで直感的な介入を可能にしている。
凍結した大規模言語モデルの言語理解と少数ショット機能を活用して、Chat-CBMは数値編集を超えてCBMの介入インターフェースを拡張し、教師なし設定でも有効である。
9つのデータセットの実験により、Chat-CBMは高い予測性能を達成し、CBMの概念に基づく解釈可能性を維持しながら、ユーザの対話性を大幅に向上することが示された。
関連論文リスト
- Interpretable Hierarchical Concept Reasoning through Attention-Guided Graph Learning [8.464865102100925]
本稿では,階層型概念記憶共振器(H-CMR)を提案する。
H-CMRは最先端のパフォーマンスと一致し、概念やモデルの介入を通じて強い人間との相互作用を可能にする。
論文 参考訳(メタデータ) (2025-06-26T08:56:55Z) - Enhancing Interpretable Image Classification Through LLM Agents and Conditional Concept Bottleneck Models [15.97013792698305]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、画像分類を解釈可能で人間可読な概念によって管理されるプロセスに分解する。
環境フィードバックに応答してコンセプトバンクを調整する動的エージェントベースのアプローチを導入する。
また,従来のCBMの概念スコアリング機構の限界を克服するために,条件付き概念ボトルネックモデル(CoCoBM)を提案する。
論文 参考訳(メタデータ) (2025-06-02T05:25:52Z) - LLM Pretraining with Continuous Concepts [71.98047075145249]
次のトークン予測は、大規模言語モデルの事前トレーニングで使用される標準的なトレーニング目標である。
離散的な次のトークン予測と連続的な概念を組み合わせた新しい事前学習フレームワークであるContinuous Concept Mixing (CoCoMix)を提案する。
論文 参考訳(メタデータ) (2025-02-12T16:00:11Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Improving Concept Alignment in Vision-Language Concept Bottleneck Models [9.228586820098723]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、クラス予測を行う前に、イメージを人間の解釈可能な概念にマッピングする。
近年のアプローチでは、大規模言語モデル(LLM)にテキスト概念の生成を促すことでCBM構築を自動化する。
LLMによって生成されたものよりも、人間の専門家によって定義された概念でCBMを構築することが望まれる。
論文 参考訳(メタデータ) (2024-05-03T03:02:00Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Beyond Concept Bottleneck Models: How to Make Black Boxes Intervenable? [8.391254800873599]
本稿では,設計によって解釈できない事前学習型ニューラルネットワークに対して,概念に基づく介入を行う手法を提案する。
我々は、インターベンタビリティの概念を概念に基づく介入の有効性の尺度として定式化し、この定義を微調整ブラックボックスに活用する。
論文 参考訳(メタデータ) (2024-01-24T16:02:14Z) - ConcEPT: Concept-Enhanced Pre-Training for Language Models [57.778895980999124]
ConcEPTは、概念知識を事前訓練された言語モデルに注入することを目的としている。
これは、事前訓練されたコンテキストで言及されたエンティティの概念を予測するために、外部エンティティの概念予測を利用する。
実験の結果,ConcEPTは概念強化事前学習により概念知識を向上することがわかった。
論文 参考訳(メタデータ) (2024-01-11T05:05:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。