論文の概要: Interpreting Interpretations: Organizing Attribution Methods by Criteria
- arxiv url: http://arxiv.org/abs/2002.07985v2
- Date: Sat, 4 Apr 2020 17:29:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 14:04:12.359025
- Title: Interpreting Interpretations: Organizing Attribution Methods by Criteria
- Title(参考訳): 解釈解釈:基準による帰属方法の整理
- Authors: Zifan Wang and Piotr Mardziel and Anupam Datta and Matt Fredrikson
- Abstract要約: 本研究では、属性が解釈される人間の理解可能な概念の基礎を広げる。
必然性と十分性の論理的概念と比例性の概念を取り入れる。
我々は、画像分類のための畳み込みニューラルネットワーク(CNN)を説明する手法の収集について評価した。
- 参考スコア(独自算出の注目度): 40.812424038838984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by distinct, though related, criteria, a growing number of
attribution methods have been developed tointerprete deep learning. While each
relies on the interpretability of the concept of "importance" and our ability
to visualize patterns, explanations produced by the methods often differ. As a
result, input attribution for vision models fail to provide any level of human
understanding of model behaviour. In this work we expand the foundationsof
human-understandable concepts with which attributionscan be interpreted beyond
"importance" and its visualization; we incorporate the logical concepts of
necessity andsufficiency, and the concept of proportionality. We definemetrics
to represent these concepts as quantitative aspectsof an attribution. This
allows us to compare attributionsproduced by different methods and interpret
them in novelways: to what extent does this attribution (or this
method)represent the necessity or sufficiency of the highlighted inputs, and to
what extent is it proportional? We evaluate our measures on a collection of
methods explaining convolutional neural networks (CNN) for image
classification. We conclude that some attribution methods are more appropriate
for interpretation in terms of necessity while others are in terms of
sufficiency, while no method is always the most appropriate in terms of both.
- Abstract(参考訳): 個別の基準によって動機づけられているが、深層学習を解釈するための帰属法が増えている。
それぞれが「重要」の概念の解釈可能性とパターンを視覚化する能力に依存しているが、手法によって生み出された説明はしばしば異なっている。
結果として、視覚モデルの入力帰属は、モデルの振る舞いに対する人間の理解のいかなるレベルも提供できない。
本研究は,「重要」を超えて帰属を解釈できる人間理解可能な概念の基礎を広げ,必然性と十分性という論理的概念と比例性の概念を取り入れたものである。
我々はこれらの概念を属性の定量的側面として表現するために計量を定義する。
これにより、異なる方法で生成された属性を比較して、それらを斬新な方法で解釈することができる。この属性(またはこの方法)は、強調された入力の必要性や十分さをどの程度表現し、どの程度に比例するか?
画像分類のための畳み込みニューラルネットワーク(cnn)を説明する手法の集合について評価した。
いくつかの帰属法は必然性の観点からは解釈に適しており、他の方法は十分である一方、どちらの方法も必ずしも両面で最も適していないと結論付けている。
関連論文リスト
- Identifying and interpreting non-aligned human conceptual
representations using language modeling [0.0]
先天性失明は,a-モダル語と知覚関連言語ドメインの両方において概念的再編成を引き起こすことを示す。
視覚障害者は、より強く社会的・認知的な意味と、行動に関連する動詞を関連づける。
一部の動詞では、盲目と盲目の表現は非常に似ている。
論文 参考訳(メタデータ) (2024-03-10T13:02:27Z) - Interpretability is in the Mind of the Beholder: A Causal Framework for
Human-interpretable Representation Learning [22.201878275784246]
説明可能なAIは、入力機能などの低レベル要素の観点から定義された説明から、データから学んだ解釈可能な概念でエンコードされた説明へとシフトしている。
しかし、そのような概念を確実に取得する方法は、基本的には不明確である。
ポストホックな説明器と概念に基づくニューラルネットワークの両方に適した解釈可能な表現を得るための数学的枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-14T14:26:20Z) - Hierarchical Semantic Tree Concept Whitening for Interpretable Image
Classification [19.306487616731765]
ポストホック分析は、モデルに自然に存在するパターンやルールのみを発見することができる。
我々は、隠された層における人間の理解可能な概念の表現を変えるために、積極的に知識を注入する。
本手法は,モデル分類性能に悪影響を及ぼすことなく,セマンティックな概念の絡み合いを良くし,モデルの解釈可能性を向上させる。
論文 参考訳(メタデータ) (2023-07-10T04:54:05Z) - Evaluating the Robustness of Interpretability Methods through
Explanation Invariance and Equivariance [72.50214227616728]
解釈可能性法は、それらの説明が説明されたモデルを忠実に記述した場合にのみ有用である。
特定の対称性群の下で予測が不変であるニューラルネットワークを考える。
論文 参考訳(メタデータ) (2023-04-13T17:59:03Z) - Translational Concept Embedding for Generalized Compositional Zero-shot
Learning [73.60639796305415]
一般合成ゼロショット学習は、ゼロショット方式で属性オブジェクト対の合成概念を学習する手段である。
本稿では,これら2つの課題を統一的なフレームワークで解決するために,翻訳概念の埋め込み(translational concept embedded)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-20T21:27:51Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Separating Skills and Concepts for Novel Visual Question Answering [66.46070380927372]
アウト・オブ・ディストリビューションデータへの一般化は、VQA(Visual Question Answering)モデルにおいて問題となっている。
「スキル」とは、数え方や属性認識などの視覚的なタスクであり、その疑問に言及された「概念」に適用される。
モデル内でこれらの2つの要因を暗黙的に分離するスキルと概念を学習するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-07-19T18:55:10Z) - Is Disentanglement all you need? Comparing Concept-based &
Disentanglement Approaches [24.786152654589067]
概念に基づく説明と非絡み合いのアプローチの概要を述べる。
両クラスからの最先端のアプローチは、データ非効率、分類/回帰タスクの特定の性質に敏感、あるいは採用した概念表現に敏感であることを示す。
論文 参考訳(メタデータ) (2021-04-14T15:06:34Z) - Robust Semantic Interpretability: Revisiting Concept Activation Vectors [0.0]
画像分類のための解釈可能性手法は、モデルが系統的に偏りがあるか、あるいは人間と同じ手掛かりに従うかを明らかにすることを試みる。
提案するRobust Concept Activation Vectors (RCAV) は,個々のモデル予測やモデル全体の振る舞いに対する意味概念の影響を定量化する。
論文 参考訳(メタデータ) (2021-04-06T20:14:59Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。