論文の概要: Towards a Deeper Understanding of Concept Bottleneck Models Through
End-to-End Explanation
- arxiv url: http://arxiv.org/abs/2302.03578v1
- Date: Tue, 7 Feb 2023 16:43:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 15:37:36.674037
- Title: Towards a Deeper Understanding of Concept Bottleneck Models Through
End-to-End Explanation
- Title(参考訳): 終端記述による概念ボトルネックモデルのより深い理解に向けて
- Authors: Jack Furby, Daniel Cunnington, Dave Braines, Alun Preece
- Abstract要約: 概念ボトルネックモデル (Concept Bottleneck Models, CBM) はまず、このベクトルを用いて最終分類を予測する前に、人間の定義した概念のベクトルに生の入力(s)をマッピングする。
そうすることで、モデルの出力の説明を生成し、概念に対応する入力特徴を可視化するときに、人間の解釈をサポートする。
- 参考スコア(独自算出の注目度): 2.9740255333669454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concept Bottleneck Models (CBMs) first map raw input(s) to a vector of
human-defined concepts, before using this vector to predict a final
classification. We might therefore expect CBMs capable of predicting concepts
based on distinct regions of an input. In doing so, this would support human
interpretation when generating explanations of the model's outputs to visualise
input features corresponding to concepts. The contribution of this paper is
threefold: Firstly, we expand on existing literature by looking at relevance
both from the input to the concept vector, confirming that relevance is
distributed among the input features, and from the concept vector to the final
classification where, for the most part, the final classification is made using
concepts predicted as present. Secondly, we report a quantitative evaluation to
measure the distance between the maximum input feature relevance and the ground
truth location; we perform this with the techniques, Layer-wise Relevance
Propagation (LRP), Integrated Gradients (IG) and a baseline gradient approach,
finding LRP has a lower average distance than IG. Thirdly, we propose using the
proportion of relevance as a measurement for explaining concept importance.
- Abstract(参考訳): 概念ボトルネックモデル (Concept Bottleneck Models, CBM) はまず、このベクトルを用いて最終分類を予測する前に、人間の定義した概念のベクトルに生の入力をマッピングする。
したがって、入力の異なる領域に基づいて概念を予測できるcbmが期待できるかもしれない。
そうすることで、モデルの出力の説明を生成し、概念に対応する入力特徴を可視化するときに、人間の解釈をサポートする。
まず、入力から概念ベクトルへの関連性に注目し、その関連性が入力特徴に分散していることを確認し、概念ベクトルから最終分類まで、ほとんどの場合、現在予測されている概念を用いて最終分類を行う。
次に,最大入力特徴量と基底真理位置との間の距離を定量的に測定する手法として,lrp (layer-wise associated propagation) ,ig (integrated gradients) およびベースライン勾配法 (baseline gradient approach) を用いた。
第3に,概念の重要性を説明する尺度として,関連度の割合を用いる。
関連論文リスト
- Can we Constrain Concept Bottleneck Models to Learn Semantically
Meaningful Input Features? [0.6993232019625149]
概念ボトルネックモデル(CBM)は、人間の定義した概念の集合を最初に予測するため、本質的に解釈可能であると考えられている。
固有解釈可能性を完全に実現するためには、意味的にマッピングされた入力機能に基づいて概念が予測されることを保証する必要がある。
我々はCBMが問題となる概念相関を取り除き,意味的マッピングによる概念表現を入力特徴へ学習できることを実証した。
論文 参考訳(メタデータ) (2024-02-01T10:18:43Z) - Coherent Entity Disambiguation via Modeling Topic and Categorical
Dependency [87.16283281290053]
従来のエンティティ曖昧化(ED)メソッドは、参照コンテキストと候補エンティティの一致するスコアに基づいて予測を行う、識別パラダイムを採用している。
本稿では,エンティティ予測のコヒーレンス向上を目的とした新しいデザインを備えたEDシステムであるCoherentedを提案する。
我々は、人気EDベンチマークにおいて、平均1.3F1ポイントの改善により、最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-11-06T16:40:13Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - Unsupervised Interpretable Basis Extraction for Concept-Based Visual
Explanations [53.973055975918655]
提案手法を用いて抽出したベースに変換すると,中間層表現がより解釈可能であることを示す。
提案手法は,提案手法を教師付きアプローチから抽出したベースと,教師付き手法から抽出したベースを比較した結果,教師なし手法は教師付き手法の限界を構成する強みを有し,今後の研究の方向性を示す。
論文 参考訳(メタデータ) (2023-03-19T00:37:19Z) - Revealing Hidden Context Bias in Segmentation and Object Detection
through Concept-specific Explanations [14.77637281844823]
提案手法は,モデルが推論時に学習し,認識し,使用した関連概念を自動的に識別し,視覚化し,入力空間内で正確に特定する,ポストホックなeXplainable Artificial Intelligence法であるL-CRPを提案する。
提案手法の信頼性を,異なる概念帰属法を定量的に比較して検証し,CityScapes, Pascal VOC, MS COCO 2017などの一般的なデータセットに対する説明複雑性への影響について検討する。
論文 参考訳(メタデータ) (2022-11-21T13:12:23Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - Exploring Concept Contribution Spatially: Hidden Layer Interpretation
with Spatial Activation Concept Vector [5.873416857161077]
コンセプトアクティベーションベクトル(TCAV)を使用したテストは、クエリ概念のターゲットクラスへのコントリビューションを定量化する強力なツールを提供する。
対象物が領域のごく一部しか占有していない画像の場合、TCAV評価は冗長な背景特徴によって妨害される可能性がある。
論文 参考訳(メタデータ) (2022-05-21T15:58:57Z) - Navigating Neural Space: Revisiting Concept Activation Vectors to
Overcome Directional Divergence [14.071950294953005]
概念活性化ベクトル (Concept Activation Vectors, CAV) は、潜在空間における人間の理解可能な概念をモデル化するための一般的なツールである。
本稿では、そのような分離性指向の解が、概念の方向性を正確にモデル化する実際の目標から逸脱する可能性があることを示す。
パターンベースのCAVを導入し、概念信号のみに着目し、より正確な概念指示を提供する。
論文 参考訳(メタデータ) (2022-02-07T19:40:20Z) - Improving Aspect-based Sentiment Analysis with Gated Graph Convolutional
Networks and Syntax-based Regulation [89.38054401427173]
Aspect-based Sentiment Analysis (ABSA) は、特定の側面に向けて文の感情極性を予測する。
依存関係ツリーは、ABSAの最先端のパフォーマンスを生成するために、ディープラーニングモデルに統合することができる。
本稿では,この2つの課題を克服するために,グラフに基づく新しいディープラーニングモデルを提案する。
論文 参考訳(メタデータ) (2020-10-26T07:36:24Z) - Medical Concept Normalization in User Generated Texts by Learning Target
Concept Embeddings [5.33024001730262]
最近の研究は、テキスト分類またはテキストマッチングとして、正規化の概念を定めている。
提案モデルでは,入力概念の参照とターゲット概念の表現を共同で学習することで,これらの欠点を克服する。
我々のモデルは、精度を2.31%向上させることで、3つの標準データセットにまたがる既存のメソッドをすべて上回ります。
論文 参考訳(メタデータ) (2020-06-07T01:17:18Z) - R-VGAE: Relational-variational Graph Autoencoder for Unsupervised
Prerequisite Chain Learning [83.13634692459486]
本稿では,概念リソースノードからなるグラフ内の概念関係を予測するために,グラフオートエンコーダ(VGA-E)と呼ばれるモデルを提案する。
その結果, 教師なし手法は, グラフベースの半教師付き手法やベースライン法よりも9.77%, 10.47%, 前提条件関係予測精度とF1スコアに優れていた。
提案手法は,教師なし事前学習のタスクに深層学習表現を適用しようとする最初のグラフベースモデルである。
論文 参考訳(メタデータ) (2020-04-22T14:48:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。