論文の概要: Do Concept Bottleneck Models Obey Locality?
- arxiv url: http://arxiv.org/abs/2401.01259v1
- Date: Tue, 2 Jan 2024 16:05:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 13:37:52.652307
- Title: Do Concept Bottleneck Models Obey Locality?
- Title(参考訳): 概念ボトルネックモデルは局所性に従うか?
- Authors: Naveen Raman, Mateo Espinosa Zarlenga, Juyeon Heo, Mateja Jamnik
- Abstract要約: 概念に基づく学習は、人間の理解可能な概念を通して予測を説明することによって、深層学習モデルの解釈可能性を改善する。
最近の研究は、この仮定がConcept Bottleneck Models(CBM)で成り立たないことを強く示唆している。
CBMは、そのような概念が空間的にも意味的にも局所化されているとき、概念間の条件独立の度合いを捉えている。
その結果,CBMが学習した概念表現の質に疑問を呈し,概念に基づく説明は地域外の変化に対して脆弱である可能性が強く示唆された。
- 参考スコア(独自算出の注目度): 16.141263815153206
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Concept-based learning improves a deep learning model's interpretability by
explaining its predictions via human-understandable concepts. Deep learning
models trained under this paradigm heavily rely on the assumption that neural
networks can learn to predict the presence or absence of a given concept
independently of other concepts. Recent work, however, strongly suggests that
this assumption may fail to hold in Concept Bottleneck Models (CBMs), a
quintessential family of concept-based interpretable architectures. In this
paper, we investigate whether CBMs correctly capture the degree of conditional
independence across concepts when such concepts are localised both spatially,
by having their values entirely defined by a fixed subset of features, and
semantically, by having their values correlated with only a fixed subset of
predefined concepts. To understand locality, we analyse how changes to features
outside of a concept's spatial or semantic locality impact concept predictions.
Our results suggest that even in well-defined scenarios where the presence of a
concept is localised to a fixed feature subspace, or whose semantics are
correlated to a small subset of other concepts, CBMs fail to learn this
locality. These results cast doubt upon the quality of concept representations
learnt by CBMs and strongly suggest that concept-based explanations may be
fragile to changes outside their localities.
- Abstract(参考訳): 概念に基づく学習は、人間の理解可能な概念を通して予測を説明することによって、深層学習モデルの解釈可能性を改善する。
このパラダイムの下でトレーニングされたディープラーニングモデルは、ニューラルネットワークが他の概念とは独立して与えられた概念の存在や欠如を予測することができるという仮定に大きく依存している。
しかし、最近の研究は、この仮定が概念ベースの解釈可能なアーキテクチャの4つのファミリーであるConcept Bottleneck Models (CBM) で成り立たないことを強く示唆している。
本稿では,これらの概念が空間的にローカライズされた場合に,cbmsが条件付き独立度を正しく把握するかどうかを,その値を特徴の固定部分集合で完全に定義し,その値を予め定義された概念の固定部分集合にのみ関連付けることで意味論的に検討する。
局所性を理解するために,概念の空間的あるいは意味的局所性以外の特徴の変化が概念予測に与える影響を分析する。
以上の結果から,ある概念の存在が固定された特徴部分空間に局所化されている場合,あるいは意味が他の概念の小さな部分集合と相関している場合においても,CBMはそのような局所性を学習できないことが示唆された。
これらの結果は、CBMが学習した概念表現の質に疑問を呈し、概念に基づく説明が地域外の変化に脆弱である可能性を強く示唆した。
関連論文リスト
- MulCPred: Learning Multi-modal Concepts for Explainable Pedestrian Action Prediction [57.483718822429346]
MulCPredは、トレーニングサンプルで表されるマルチモーダルな概念に基づいて、その予測を説明する。
MulCPredは複数のデータセットとタスクで評価される。
論文 参考訳(メタデータ) (2024-09-14T14:15:28Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - CogDPM: Diffusion Probabilistic Models via Cognitive Predictive Coding [62.075029712357]
本研究は認知拡散確率モデル(CogDPM)を紹介する。
CogDPMは拡散モデルの階層的サンプリング能力に基づく精度推定法と拡散モデル固有の性質から推定される精度重み付きガイダンスを備える。
我々は,Universal Kindomの降水量と表面風速データセットを用いた実世界の予測タスクにCogDPMを適用した。
論文 参考訳(メタデータ) (2024-05-03T15:54:50Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - On the Concept Trustworthiness in Concept Bottleneck Models [39.928868605678744]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、推論プロセスを、概念マッピングと概念ラベル予測に分解する。
概念からラベルへの予測の透明性にもかかわらず、入力から中間概念へのマッピングはブラックボックスのままである。
概念が関連する領域から導出されているかどうかを評価するために、概念信頼性スコアと呼ばれる先駆的な指標が提案されている。
拡張されたCBMを導入し、特徴マップの異なる部分から概念予測を具体的に行えるようにした。
論文 参考訳(メタデータ) (2024-03-21T12:24:53Z) - Can we Constrain Concept Bottleneck Models to Learn Semantically Meaningful Input Features? [0.6401548653313325]
概念ボトルネックモデル(CBM)は、人間の定義した概念の集合を最初に予測するため、本質的に解釈可能であるとみなされる。
現在の文献では、概念予測は無関係な入力特徴に依存することが多いことを示唆している。
本稿では,CBMが概念を意味的に意味のある入力特徴にマッピングできることを実証する。
論文 参考訳(メタデータ) (2024-02-01T10:18:43Z) - ConcEPT: Concept-Enhanced Pre-Training for Language Models [57.778895980999124]
ConcEPTは、概念知識を事前訓練された言語モデルに注入することを目的としている。
これは、事前訓練されたコンテキストで言及されたエンティティの概念を予測するために、外部エンティティの概念予測を利用する。
実験の結果,ConcEPTは概念強化事前学習により概念知識を向上することがわかった。
論文 参考訳(メタデータ) (2024-01-11T05:05:01Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Sparse Linear Concept Discovery Models [11.138948381367133]
概念ボトルネックモデル(Concept Bottleneck Models, CBM)は、隠蔽層が人間の理解可能な概念に結びついている一般的なアプローチである。
本稿では,Contrastive Language Imageモデルと単一スパース線形層に基づく,シンプルかつ直感的に解釈可能なフレームワークを提案する。
実験により、我々のフレームワークは、最近のCBMアプローチを精度的に上回るだけでなく、一例あたりの疎度も高いことを示す。
論文 参考訳(メタデータ) (2023-08-21T15:16:19Z) - Probabilistic Concept Bottleneck Models [26.789507935869107]
解釈可能なモデルは、人間の解釈可能な方法で決定を下すように設計されている。
本研究では,信頼性を損なうようなあいまいさの問題に対処する。
確率論的概念ボトルネックモデル(ProbCBM)を提案する。
論文 参考訳(メタデータ) (2023-06-02T14:38:58Z) - Post-hoc Concept Bottleneck Models [11.358495577593441]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、入力を解釈可能な概念のセットにマッピングし、その概念を用いて予測を行う。
CBMは、ボトルネックを学ぶためにトレーニングデータに概念ラベルを必要とするため、実際には制限があり、強い事前訓練されたモデルを活用しない。
解釈可能性の利点を保ちながら、モデル性能を犠牲にすることなく、任意のニューラルネットワークをPCBMに変換することができることを示す。
論文 参考訳(メタデータ) (2022-05-31T00:29:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。