論文の概要: Knowledge-Aware Neuron Interpretation for Scene Classification
- arxiv url: http://arxiv.org/abs/2401.15820v1
- Date: Mon, 29 Jan 2024 01:00:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 16:27:26.619564
- Title: Knowledge-Aware Neuron Interpretation for Scene Classification
- Title(参考訳): シーン分類のための知識認識ニューロン解釈
- Authors: Yong Guan, Freddy Lecue, Jiaoyan Chen, Ru Li, Jeff Z. Pan
- Abstract要約: 画像シーン分類のためのモデル予測を説明するための知識認識型ニューロン解釈フレームワークを提案する。
概念完全性については,概念の完全性を評価するために,知識グラフ(ConceptNet)に基づくシーンの中核概念を提示する。
概念融合のために,概念フィルタリング(Concept Filtering)と呼ばれる知識グラフに基づく手法を導入する。
- 参考スコア(独自算出の注目度): 32.32713349524347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although neural models have achieved remarkable performance, they still
encounter doubts due to the intransparency. To this end, model prediction
explanation is attracting more and more attentions. However, current methods
rarely incorporate external knowledge and still suffer from three limitations:
(1) Neglecting concept completeness. Merely selecting concepts may not
sufficient for prediction. (2) Lacking concept fusion. Failure to merge
semantically-equivalent concepts. (3) Difficult in manipulating model behavior.
Lack of verification for explanation on original model. To address these
issues, we propose a novel knowledge-aware neuron interpretation framework to
explain model predictions for image scene classification. Specifically, for
concept completeness, we present core concepts of a scene based on knowledge
graph, ConceptNet, to gauge the completeness of concepts. Our method,
incorporating complete concepts, effectively provides better prediction
explanations compared to baselines. Furthermore, for concept fusion, we
introduce a knowledge graph-based method known as Concept Filtering, which
produces over 23% point gain on neuron behaviors for neuron interpretation. At
last, we propose Model Manipulation, which aims to study whether the core
concepts based on ConceptNet could be employed to manipulate model behavior.
The results show that core concepts can effectively improve the performance of
original model by over 26%.
- Abstract(参考訳): ニューラルモデルは目覚ましい性能を達成したが、それでも不透明さのために疑問が残る。
この目的のために、モデル予測の説明はますます注目を集めている。
しかしながら、現在の手法では外部知識を取り入れることは稀であり、(1)概念の完全性を無視する3つの限界に悩まされている。
単に概念を選択するだけでは予測には不十分である。
(2)概念融合の欠如。
意味論的に等価な概念をマージできない。
3)モデル動作の操作が困難である。
オリジナルのモデルの説明のための検証の欠如。
これらの問題に対処するために,画像シーン分類のモデル予測を説明するための新しい知識認識ニューロン解釈フレームワークを提案する。
具体的には,概念の完全性を評価するために,知識グラフに基づくシーンの中核概念である概念ネットを提案する。
完全な概念を取り入れた本手法は,ベースラインよりも優れた予測説明を提供する。
さらに, 概念融合のために, 概念フィルタリングと呼ばれる知識グラフに基づく手法を導入し, ニューロン解釈のためのニューロンの挙動について23%以上のポイントゲインを発生させる。
最後に,ConceptNetに基づくコア概念がモデル動作の操作に利用できるかを検討することを目的としたモデルマニピュレーションを提案する。
その結果,コアコンセプトはオリジナルモデルの性能を26%以上向上させることができることがわかった。
関連論文リスト
- MulCPred: Learning Multi-modal Concepts for Explainable Pedestrian Action Prediction [57.483718822429346]
MulCPredは、トレーニングサンプルで表されるマルチモーダルな概念に基づいて、その予測を説明する。
MulCPredは複数のデータセットとタスクで評価される。
論文 参考訳(メタデータ) (2024-09-14T14:15:28Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - LLM-assisted Concept Discovery: Automatically Identifying and Explaining Neuron Functions [15.381209058506078]
以前の研究は、概念の例や事前に定義された概念のセットに基づいて、ニューロンに関連づけられた概念を持っている。
本稿では,マルチモーダルな大規模言語モデルを用いて,自動的かつオープンな概念発見を提案する。
我々は,この新たな画像に対して,サンプルと反例を生成し,ニューロンの反応を評価することにより,それぞれの概念を検証する。
論文 参考訳(メタデータ) (2024-06-12T18:19:37Z) - Conceptual and Unbiased Reasoning in Language Models [98.90677711523645]
本稿では,抽象的質問に対する概念的推論をモデルに強制する,新しい概念化フレームワークを提案する。
既存の大規模言語モデルは概念的推論では不足しており、様々なベンチマークでは9%から28%に低下している。
ハイレベルな抽象的推論が不偏で一般化可能な意思決定の鍵となるので、モデルがどのように改善できるかについて議論する。
論文 参考訳(メタデータ) (2024-03-30T00:53:53Z) - An Axiomatic Approach to Model-Agnostic Concept Explanations [67.84000759813435]
本稿では、線形性、再帰性、類似性という3つの自然な公理を満たす概念的説明へのアプローチを提案する。
次に、従来の概念的説明手法とのつながりを確立し、それらの意味の異なる意味についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-12T20:53:35Z) - Implicit Concept Removal of Diffusion Models [92.55152501707995]
テキスト・ツー・イメージ(T2I)拡散モデルはしばしば、透かしや安全でない画像のような望ましくない概念を不注意に生成する。
幾何学駆動制御に基づく新しい概念除去手法であるGeom-Erasingを提案する。
論文 参考訳(メタデータ) (2023-10-09T17:13:10Z) - Hierarchical Semantic Tree Concept Whitening for Interpretable Image
Classification [19.306487616731765]
ポストホック分析は、モデルに自然に存在するパターンやルールのみを発見することができる。
我々は、隠された層における人間の理解可能な概念の表現を変えるために、積極的に知識を注入する。
本手法は,モデル分類性能に悪影響を及ぼすことなく,セマンティックな概念の絡み合いを良くし,モデルの解釈可能性を向上させる。
論文 参考訳(メタデータ) (2023-07-10T04:54:05Z) - ConceptDistil: Model-Agnostic Distillation of Concept Explanations [4.462334751640166]
概念に基づく説明は、非技術的人間のためのモデルの解釈可能性ギャップを埋めることを目的としている。
知識蒸留を用いたブラックボックス分類器に概念記述をもたらす方法であるConceptDistilを提案する。
実世界のユースケースでConceptDistilを検証することで、両方のタスクを最適化できることを示す。
論文 参考訳(メタデータ) (2022-05-07T08:58:54Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - MACE: Model Agnostic Concept Extractor for Explaining Image
Classification Networks [10.06397994266945]
MACE: Model Agnostic Concept Extractorを提案し、より小さな概念を通じて畳み込みネットワークの動作を説明する。
VGG16やResNet50 CNNアーキテクチャ、Animals With Attributes 2(AWA2)やPlaces365といったデータセットを使って、私たちのフレームワークを検証する。
論文 参考訳(メタデータ) (2020-11-03T04:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。