論文の概要: Statistically Significant Concept-based Explanation of Image Classifiers
via Model Knockoffs
- arxiv url: http://arxiv.org/abs/2305.18362v2
- Date: Wed, 31 May 2023 03:20:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 11:59:21.790868
- Title: Statistically Significant Concept-based Explanation of Image Classifiers
via Model Knockoffs
- Title(参考訳): 統計的に有意な概念に基づくモデルノックオフによる画像分類器の説明
- Authors: Kaiwen Xu, Kazuto Fukuchi, Youhei Akimoto and Jun Sakuma
- Abstract要約: 概念に基づく説明は、非関連概念を予測タスクにとって重要であると誤解する偽陽性を引き起こす可能性がある。
深層学習モデルを用いて画像概念を学習し,Knockoffサンプルを用いて予測のための重要な概念を選択する手法を提案する。
- 参考スコア(独自算出の注目度): 22.576922942465142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A concept-based classifier can explain the decision process of a deep
learning model by human-understandable concepts in image classification
problems. However, sometimes concept-based explanations may cause false
positives, which misregards unrelated concepts as important for the prediction
task. Our goal is to find the statistically significant concept for
classification to prevent misinterpretation. In this study, we propose a method
using a deep learning model to learn the image concept and then using the
Knockoff samples to select the important concepts for prediction by controlling
the False Discovery Rate (FDR) under a certain value. We evaluate the proposed
method in our synthetic and real data experiments. Also, it shows that our
method can control the FDR properly while selecting highly interpretable
concepts to improve the trustworthiness of the model.
- Abstract(参考訳): 概念に基づく分類器は、画像分類問題における人間の理解可能な概念による深層学習モデルの決定過程を説明することができる。
しかし、概念に基づく説明が偽陽性を引き起こす場合もあり、これは非関連概念を予測タスクにとって重要であると誤解している。
我々の目標は、誤解釈を防ぐための分類の統計的に重要な概念を見つけることである。
本研究では,深層学習モデルを用いて画像概念を学習し,Knockoffサンプルを用いてFalse Discovery Rate(FDR)を一定の値で制御することにより,予測のための重要な概念を選択する手法を提案する。
合成および実データ実験において提案手法の評価を行った。
また,本手法は,信頼度を向上させるために,高い解釈可能な概念を選択しながらFDRを適切に制御できることを示す。
関連論文リスト
- Unlearning or Concealment? A Critical Analysis and Evaluation Metrics for Unlearning in Diffusion Models [7.9993879763024065]
既存の手法で未学習に使用する目的関数が,対象概念の分離に繋がることを示す。
現在の手法の非効率性は、主に特定のプロンプト集合の生成確率の減少に焦点を絞ったものである。
CRS(Concept Retrieval Score)とCCS(Concept Confidence Score)の2つの新しい評価指標を紹介した。
論文 参考訳(メタデータ) (2024-09-09T14:38:31Z) - ClassDiffusion: More Aligned Personalization Tuning with Explicit Class Guidance [78.44823280247438]
新しい概念を学ぶ際に,意味的保存損失を利用して概念空間を明示的に制御する手法であるClassDiffusionを提案する。
その単純さにもかかわらず、これはターゲット概念を微調整する際のセマンティックドリフトを避けるのに役立つ。
CLIP-T測定値の非効率な評価に対して,BLIP2-T測定値を導入する。
論文 参考訳(メタデータ) (2024-05-27T17:50:10Z) - An Axiomatic Approach to Model-Agnostic Concept Explanations [67.84000759813435]
本稿では、線形性、再帰性、類似性という3つの自然な公理を満たす概念的説明へのアプローチを提案する。
次に、従来の概念的説明手法とのつながりを確立し、それらの意味の異なる意味についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-12T20:53:35Z) - Estimation of Concept Explanations Should be Uncertainty Aware [39.598213804572396]
概念説明(Concept Explanations)と呼ばれる特定の概念について研究し、人間の理解可能な概念を用いてモデルを解釈することを目的としている。
簡単な解釈で人気があるが、概念的な説明は騒々しいことが知られている。
本稿では,これらの問題に対処する不確実性を考慮したベイズ推定手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T11:17:27Z) - Concept Distillation: Leveraging Human-Centered Explanations for Model
Improvement [3.026365073195727]
概念活性化ベクトル(Concept Activation Vectors, CAV)は、ある概念に対するモデルの感度と潜在的なバイアスを推定する。
微調整によりモデルバイアスを低減するため,CAVをポストホック解析からアンテホックトレーニングに拡張する。
本稿では,いくつかの分類問題に対する概念感受性トレーニングの応用について述べる。
論文 参考訳(メタデータ) (2023-11-26T14:00:14Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Provable concept learning for interpretable predictions using
variational inference [7.0349768355860895]
安全クリティカルなアプリケーションでは、解釈可能な説明が得られない場合、実践者はニューラルネットワークを信頼することを避けます。
我々は(C)概念(L)アーニングと(P)ディディクション(CLAP)を導出する確率論的モデリングフレームワークを提案する。
本手法は最適な分類精度を保ちながら同定できることを実証する。
論文 参考訳(メタデータ) (2022-04-01T14:51:38Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Debiasing Concept-based Explanations with Causal Analysis [4.911435444514558]
本研究は,特徴の相違する情報と相関する概念の問題点について考察する。
観測されていない変数の影響をモデル化するための新しい因果前グラフを提案する。
提案手法は,概念が完成していない場合に有効であることを示す。
論文 参考訳(メタデータ) (2020-07-22T15:42:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。