論文の概要: Can we Constrain Concept Bottleneck Models to Learn Semantically
Meaningful Input Features?
- arxiv url: http://arxiv.org/abs/2402.00912v1
- Date: Thu, 1 Feb 2024 10:18:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 18:17:36.653713
- Title: Can we Constrain Concept Bottleneck Models to Learn Semantically
Meaningful Input Features?
- Title(参考訳): 概念ボトルネックモデルは意味的に意味のある入力機能を学ぶために制約できるのか?
- Authors: Jack Furby, Daniel Cunnington, Dave Braines, Alun Preece
- Abstract要約: 概念ボトルネックモデル(CBM)は、人間の定義した概念の集合を最初に予測するため、本質的に解釈可能であると考えられている。
固有解釈可能性を完全に実現するためには、意味的にマッピングされた入力機能に基づいて概念が予測されることを保証する必要がある。
我々はCBMが問題となる概念相関を取り除き,意味的マッピングによる概念表現を入力特徴へ学習できることを実証した。
- 参考スコア(独自算出の注目度): 0.6993232019625149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concept Bottleneck Models (CBMs) are considered inherently interpretable
because they first predict a set of human-defined concepts before using these
concepts to predict the output of a downstream task. For inherent
interpretability to be fully realised, and ensure trust in a model's output, we
need to guarantee concepts are predicted based on semantically mapped input
features. For example, one might expect the pixels representing a broken bone
in an image to be used for the prediction of a fracture. However, current
literature indicates this is not the case, as concept predictions are often
mapped to irrelevant input features. We hypothesise that this occurs when
concept annotations are inaccurate or how input features should relate to
concepts is unclear. In general, the effect of dataset labelling on concept
representations in CBMs remains an understudied area. Therefore, in this paper,
we examine how CBMs learn concepts from datasets with fine-grained concept
annotations. We demonstrate that CBMs can learn concept representations with
semantic mapping to input features by removing problematic concept
correlations, such as two concepts always appearing together. To support our
evaluation, we introduce a new synthetic image dataset based on a playing cards
domain, which we hope will serve as a benchmark for future CBM research. For
validation, we provide empirical evidence on a real-world dataset of chest
X-rays, to demonstrate semantically meaningful concepts can be learned in
real-world applications.
- Abstract(参考訳): CBM(Concept Bottleneck Models)は、まずこれらの概念を使用して下流タスクの出力を予測する前に、人間の定義した概念のセットを予測するため、本質的に解釈可能であると考えられている。
固有解釈可能性を完全に実現し、モデルの出力に対する信頼を確保するためには、セマンティックマッピングされた入力特徴に基づいて概念が予測されることを保証する必要がある。
例えば、画像中の骨折した骨を表すピクセルが骨折の予測に使用されることを期待するかもしれない。
しかし、現在の文献では、概念予測がしばしば無関係な入力特徴にマッピングされるため、これはそうではないことを示している。
概念アノテーションが不正確であったり、入力機能が概念とどのように関連付けるべきかが不明な場合に発生すると仮定する。
一般に、データセットラベリングがcbmsの概念表現に与える影響は未検討領域である。
そこで本稿では,cbmがデータセットから概念をどのように学習するかを,きめ細かい概念アノテーションで検証する。
我々は,CBMが意味的マッピングによる概念表現を,常に一緒に現れる2つの概念のような問題のある概念相関を除去することで,入力特徴に対する概念表現を学習できることを実証した。
評価を支援するため,カードドメインに基づく新しい合成画像データセットを導入し,今後のCBM研究のベンチマークとして機能することを期待する。
検証のために,実世界の胸部X線のデータセットに実証的な証拠を提供し,実世界のアプリケーションで意味論的に意味のある概念を学習できることを実証する。
関連論文リスト
- MulCPred: Learning Multi-modal Concepts for Explainable Pedestrian Action Prediction [57.483718822429346]
MulCPredは、トレーニングサンプルで表されるマルチモーダルな概念に基づいて、その予測を説明する。
MulCPredは複数のデータセットとタスクで評価される。
論文 参考訳(メタデータ) (2024-09-14T14:15:28Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - On the Concept Trustworthiness in Concept Bottleneck Models [39.928868605678744]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、推論プロセスを、概念マッピングと概念ラベル予測に分解する。
概念からラベルへの予測の透明性にもかかわらず、入力から中間概念へのマッピングはブラックボックスのままである。
概念が関連する領域から導出されているかどうかを評価するために、概念信頼性スコアと呼ばれる先駆的な指標が提案されている。
拡張されたCBMを導入し、特徴マップの異なる部分から概念予測を具体的に行えるようにした。
論文 参考訳(メタデータ) (2024-03-21T12:24:53Z) - Gaussian Mixture Models for Affordance Learning using Bayesian Networks [50.18477618198277]
Affordancesはアクション、オブジェクト、エフェクト間の関係の基本的な記述である。
本稿では,世界を探究し,その感覚経験から自律的にこれらの余裕を学習するエンボディエージェントの問題にアプローチする。
論文 参考訳(メタデータ) (2024-02-08T22:05:45Z) - Energy-Based Concept Bottleneck Models: Unifying Prediction, Concept Intervention, and Probabilistic Interpretations [15.23014992362639]
概念ボトルネックモデル(CBM)は、ブラックボックスのディープラーニングモデルに対する概念ベースの解釈を提供することに成功している。
エネルギーベースコンセプトボトルネックモデル(ECBM)を提案する。
私たちのECBMは、候補(インプット、概念、クラス)の量子化の結合エネルギーを定義するために、ニューラルネットワークのセットを使用します。
論文 参考訳(メタデータ) (2024-01-25T12:46:37Z) - Do Concept Bottleneck Models Respect Localities? [14.77558378567965]
概念に基づく手法は、人間の理解可能な概念を用いてモデル予測を説明する。
ローカリティ(Localities)とは、概念の価値を予測する際に、関連する機能のみを使用することである。
CBMは、独立概念が重複しない特徴部分集合に局所化されている場合でも、局所性を捉えない。
論文 参考訳(メタデータ) (2024-01-02T16:05:23Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Learn to explain yourself, when you can: Equipping Concept Bottleneck
Models with the ability to abstain on their concept predictions [21.94901195358998]
本稿では、ニューラルネットワークに基づく分類器に、概念ラベルコンポーネントが不確かである場合に、概念予測を控える機能を持たせる方法を示す。
我々のモデルは、その予測に合理性を与えることを学習するが、その理性が正しいことを保証するときだけに限られる。
論文 参考訳(メタデータ) (2022-11-21T18:07:14Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - Learning Interpretable Concept-Based Models with Human Feedback [36.65337734891338]
本研究では,ユーザが概念特徴をラベル付けすることに依存する高次元データにおいて,透明な概念定義の集合を学習するためのアプローチを提案する。
提案手法は,概念の意味を直感的に理解する概念と一致し,透過的な機械学習モデルにより下流ラベルの予測を容易にする概念を生成する。
論文 参考訳(メタデータ) (2020-12-04T23:41:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。