論文の概要: Knowledge-Aware Neuron Interpretation for Scene Classification
- arxiv url: http://arxiv.org/abs/2401.15820v1
- Date: Mon, 29 Jan 2024 01:00:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 16:27:26.619564
- Title: Knowledge-Aware Neuron Interpretation for Scene Classification
- Title(参考訳): シーン分類のための知識認識ニューロン解釈
- Authors: Yong Guan, Freddy Lecue, Jiaoyan Chen, Ru Li, Jeff Z. Pan
- Abstract要約: 画像シーン分類のためのモデル予測を説明するための知識認識型ニューロン解釈フレームワークを提案する。
概念完全性については,概念の完全性を評価するために,知識グラフ(ConceptNet)に基づくシーンの中核概念を提示する。
概念融合のために,概念フィルタリング(Concept Filtering)と呼ばれる知識グラフに基づく手法を導入する。
- 参考スコア(独自算出の注目度): 32.32713349524347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although neural models have achieved remarkable performance, they still
encounter doubts due to the intransparency. To this end, model prediction
explanation is attracting more and more attentions. However, current methods
rarely incorporate external knowledge and still suffer from three limitations:
(1) Neglecting concept completeness. Merely selecting concepts may not
sufficient for prediction. (2) Lacking concept fusion. Failure to merge
semantically-equivalent concepts. (3) Difficult in manipulating model behavior.
Lack of verification for explanation on original model. To address these
issues, we propose a novel knowledge-aware neuron interpretation framework to
explain model predictions for image scene classification. Specifically, for
concept completeness, we present core concepts of a scene based on knowledge
graph, ConceptNet, to gauge the completeness of concepts. Our method,
incorporating complete concepts, effectively provides better prediction
explanations compared to baselines. Furthermore, for concept fusion, we
introduce a knowledge graph-based method known as Concept Filtering, which
produces over 23% point gain on neuron behaviors for neuron interpretation. At
last, we propose Model Manipulation, which aims to study whether the core
concepts based on ConceptNet could be employed to manipulate model behavior.
The results show that core concepts can effectively improve the performance of
original model by over 26%.
- Abstract(参考訳): ニューラルモデルは目覚ましい性能を達成したが、それでも不透明さのために疑問が残る。
この目的のために、モデル予測の説明はますます注目を集めている。
しかしながら、現在の手法では外部知識を取り入れることは稀であり、(1)概念の完全性を無視する3つの限界に悩まされている。
単に概念を選択するだけでは予測には不十分である。
(2)概念融合の欠如。
意味論的に等価な概念をマージできない。
3)モデル動作の操作が困難である。
オリジナルのモデルの説明のための検証の欠如。
これらの問題に対処するために,画像シーン分類のモデル予測を説明するための新しい知識認識ニューロン解釈フレームワークを提案する。
具体的には,概念の完全性を評価するために,知識グラフに基づくシーンの中核概念である概念ネットを提案する。
完全な概念を取り入れた本手法は,ベースラインよりも優れた予測説明を提供する。
さらに, 概念融合のために, 概念フィルタリングと呼ばれる知識グラフに基づく手法を導入し, ニューロン解釈のためのニューロンの挙動について23%以上のポイントゲインを発生させる。
最後に,ConceptNetに基づくコア概念がモデル動作の操作に利用できるかを検討することを目的としたモデルマニピュレーションを提案する。
その結果,コアコンセプトはオリジナルモデルの性能を26%以上向上させることができることがわかった。
関連論文リスト
- Energy-Based Concept Bottleneck Models: Unifying Prediction, Concept
Intervention, and Probabilistic Interpretations [16.33960472610483]
概念ボトルネックモデル(CBM)は、ブラックボックスのディープラーニングモデルに対する概念ベースの解釈を提供することに成功している。
エネルギーベースコンセプトボトルネックモデル(ECBM)を提案する。
私たちのECBMは、候補(インプット、概念、クラス)の量子化の結合エネルギーを定義するために、ニューラルネットワークのセットを使用します。
論文 参考訳(メタデータ) (2024-01-25T12:46:37Z) - An Axiomatic Approach to Model-Agnostic Concept Explanations [67.84000759813435]
本稿では、線形性、再帰性、類似性という3つの自然な公理を満たす概念的説明へのアプローチを提案する。
次に、従来の概念的説明手法とのつながりを確立し、それらの意味の異なる意味についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-12T20:53:35Z) - Implicit Concept Removal of Diffusion Models [96.03200681493348]
テキスト・ツー・イメージ(T2I)拡散モデルは、透かしや安全でない画像などの不要な概念を不注意に生成する。
幾何学駆動制御に基づく新しい概念除去手法であるGeom-Erasingを提案する。
論文 参考訳(メタデータ) (2023-10-09T17:13:10Z) - Hierarchical Semantic Tree Concept Whitening for Interpretable Image
Classification [19.306487616731765]
ポストホック分析は、モデルに自然に存在するパターンやルールのみを発見することができる。
我々は、隠された層における人間の理解可能な概念の表現を変えるために、積極的に知識を注入する。
本手法は,モデル分類性能に悪影響を及ぼすことなく,セマンティックな概念の絡み合いを良くし,モデルの解釈可能性を向上させる。
論文 参考訳(メタデータ) (2023-07-10T04:54:05Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - ConceptDistil: Model-Agnostic Distillation of Concept Explanations [4.462334751640166]
概念に基づく説明は、非技術的人間のためのモデルの解釈可能性ギャップを埋めることを目的としている。
知識蒸留を用いたブラックボックス分類器に概念記述をもたらす方法であるConceptDistilを提案する。
実世界のユースケースでConceptDistilを検証することで、両方のタスクを最適化できることを示す。
論文 参考訳(メタデータ) (2022-05-07T08:58:54Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Kernelized Concept Erasure [108.65038124096907]
概念消去のための線形ミニマックスゲームのカーネル化を提案する。
特定の非線形敵が概念を予測するのを防ぐことができる。
しかし、保護は異なる非線形敵に移動しない。
論文 参考訳(メタデータ) (2022-01-28T15:45:13Z) - MACE: Model Agnostic Concept Extractor for Explaining Image
Classification Networks [10.06397994266945]
MACE: Model Agnostic Concept Extractorを提案し、より小さな概念を通じて畳み込みネットワークの動作を説明する。
VGG16やResNet50 CNNアーキテクチャ、Animals With Attributes 2(AWA2)やPlaces365といったデータセットを使って、私たちのフレームワークを検証する。
論文 参考訳(メタデータ) (2020-11-03T04:40:49Z) - Concept Bottleneck Models [79.91795150047804]
現在の最先端モデルは、通常「骨の支柱の存在」のような概念の操作をサポートしない。
トレーニング時に提供される概念を最初に予測し、ラベルを予測するためにこれらの概念を使用するという古典的な考え方を再考する。
X線グレーディングと鳥の識別では、概念ボトルネックモデルが標準のエンドツーエンドモデルと競合する精度を達成する。
論文 参考訳(メタデータ) (2020-07-09T07:47:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。