論文の概要: Adversarial TCAV -- Robust and Effective Interpretation of Intermediate
Layers in Neural Networks
- arxiv url: http://arxiv.org/abs/2002.03549v2
- Date: Wed, 26 Feb 2020 18:15:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 07:21:37.948542
- Title: Adversarial TCAV -- Robust and Effective Interpretation of Intermediate
Layers in Neural Networks
- Title(参考訳): adversarial tcav --ニューラルネットワークにおける中間層のロバストかつ効果的な解釈
- Authors: Rahul Soni, Naresh Shah, Chua Tat Seng, Jimmy D. Moore
- Abstract要約: 本稿では,コンセプトアクティベーションの信頼性向上を実用化するために提案する。
強靭性については、異なるランダムシードに対するリコール率(有効性)で中間層が整合する能力として定義する。
概念からランダムノイズをサンプリングし,平均的な"概念"を学習するために,Gram-Schmidtプロセスを用いたシンプルでスケーラブルな修正を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpreting neural network decisions and the information learned in
intermediate layers is still a challenge due to the opaque internal state and
shared non-linear interactions. Although (Kim et al, 2017) proposed to
interpret intermediate layers by quantifying its ability to distinguish a
user-defined concept (from random examples), the questions of robustness
(variation against the choice of random examples) and effectiveness (retrieval
rate of concept images) remain. We investigate these two properties and propose
improvements to make concept activations reliable for practical use.
Effectiveness: If the intermediate layer has effectively learned a
user-defined concept, it should be able to recall --- at the testing step ---
most of the images containing the proposed concept. For instance, we observed
that the recall rate of Tiger shark and Great white shark from the ImageNet
dataset with "Fins" as a user-defined concept was only 18.35% for VGG16. To
increase the effectiveness of concept learning, we propose A-CAV --- the
Adversarial Concept Activation Vector --- this results in larger margins
between user concepts and (negative) random examples. This approach improves
the aforesaid recall to 76.83% for VGG16.
For robustness, we define it as the ability of an intermediate layer to be
consistent in its recall rate (the effectiveness) for different random seeds.
We observed that TCAV has a large variance in recalling a concept across
different random seeds. For example, the recall of cat images (from a layer
learning the concept of tail) varies from 18% to 86% with 20.85% standard
deviation on VGG16. We propose a simple and scalable modification that employs
a Gram-Schmidt process to sample random noise from concepts and learn an
average "concept classifier". This approach improves the aforesaid standard
deviation from 20.85% to 6.4%.
- Abstract(参考訳): ニューラルネットワークの決定と中間層で得られる情報解釈は、不透明な内部状態と共有非線形相互作用のため、依然として課題である。
kim et al, 2017)は、ユーザ定義の概念(ランダムな例から)を識別する能力を定量化することで中間層を解釈することを提案したが、ロバスト性(ランダムな例の選択に対する変動)と有効性(概念画像の再評価率)の疑問は残る。
この2つの特性について検討し,概念活性化を実用的に信頼性を高めるための改善を提案する。
有効性: 中間層がユーザ定義の概念を効果的に学習した場合、テストステップで --- 提案する概念を含むイメージの大部分を思い出せるべきです。
例えば、imagenet データセットからユーザ定義の概念として "fins" を用いたタイガーシャークとグレートホワイトシャークのリコール率は、vgg16の18.35%に過ぎなかった。
概念学習の有効性を高めるため,A-CAV (Adversarial Concept Activation Vector) を提案する。
このアプローチにより、VGG16のリコールは76.83%向上した。
ロバスト性については、中間層が異なるランダム種子のリコール率(有効性)に一貫性を持つ能力として定義する。
TCAVは、異なるランダムシードのコンセプトをリコールする際、大きなばらつきがあることを観察した。
例えば、猫画像のリコール(尾部の概念を学習する層から)は18%から86%に変化し、VGG16の標準偏差は20.85%である。
本稿では,Gram-Schmidtプロセスを用いて,概念からランダムノイズをサンプリングし,平均的な"概念分類器"を学習する,シンプルでスケーラブルな修正を提案する。
このアプローチは、aforesaid標準偏差を20.85%から6.4%に改善する。
関連論文リスト
- ClassDiffusion: More Aligned Personalization Tuning with Explicit Class Guidance [78.44823280247438]
新しい概念を学ぶ際に,意味的保存損失を利用して概念空間を明示的に制御する手法であるClassDiffusionを提案する。
その単純さにもかかわらず、これはターゲット概念を微調整する際のセマンティックドリフトを避けるのに役立つ。
CLIP-T測定値の非効率な評価に対して,BLIP2-T測定値を導入する。
論文 参考訳(メタデータ) (2024-05-27T17:50:10Z) - Attributing Learned Concepts in Neural Networks to Training Data [5.930268338525991]
コンバージェンス(収束)の証拠として,概念の上位1万個の画像を取り除き,モデルの再トレーニングを行うと,ネットワーク内の概念の位置が変化しない。
このことは、概念の発達を知らせる特徴が、概念形成の堅牢さを暗示して、その先例にまたがるより拡散した方法で広がることを示唆している。
論文 参考訳(メタデータ) (2023-10-04T20:26:59Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - Statistically Significant Concept-based Explanation of Image Classifiers
via Model Knockoffs [22.576922942465142]
概念に基づく説明は、非関連概念を予測タスクにとって重要であると誤解する偽陽性を引き起こす可能性がある。
深層学習モデルを用いて画像概念を学習し,Knockoffサンプルを用いて予測のための重要な概念を選択する手法を提案する。
論文 参考訳(メタデータ) (2023-05-27T05:40:05Z) - Birds of a Feather Trust Together: Knowing When to Trust a Classifier
via Adaptive Neighborhood Aggregation [30.34223543030105]
我々は、NeighborAggがアダプティブ近隣アグリゲーションを介して2つの重要な情報を利用する方法を示す。
また, 誤り検出の密接な関連課題へのアプローチを拡張し, 偽陰性境界に対する理論的カバレッジを保証する。
論文 参考訳(メタデータ) (2022-11-29T18:43:15Z) - SBPF: Sensitiveness Based Pruning Framework For Convolutional Neural
Network On Image Classification [23.271501988351268]
画像分類において、畳み込みニューラルネットワーク(CNN)を圧縮するためにプルーニング技術が使用される。
推定精度の観点から各層の重要性を評価するための感度に基づく手法を提案する。
論文 参考訳(メタデータ) (2022-08-09T08:05:19Z) - Discovering Human-Object Interaction Concepts via Self-Compositional
Learning [93.38239238988719]
本稿では,HOI概念発見(HOI Concept Discovery)と呼ばれる包括的HOI理解のための,新しい課題を紹介する。
HOI概念発見のための自己構成学習フレームワーク(SCL)を考案する。
提案手法の有効性を実証するために,いくつかの一般的なHOIデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-03-27T10:31:55Z) - Uncertainty Modeling for Out-of-Distribution Generalization [56.957731893992495]
特徴統計を適切に操作することで、ディープラーニングモデルの一般化能力を向上させることができると論じる。
一般的な手法では、特徴統計を学習した特徴から測定された決定論的値とみなすことが多い。
我々は、学習中に合成された特徴統計を用いて、領域シフトの不確かさをモデル化することにより、ネットワークの一般化能力を向上させる。
論文 参考訳(メタデータ) (2022-02-08T16:09:12Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Correlated Input-Dependent Label Noise in Large-Scale Image
Classification [4.979361059762468]
我々は、データセット内のラベルノイズとしてヘテロセダスティック(herescedastic, label noise)として知られる入力依存のモデリングに対して、原則的な確率論的アプローチをとる。
学習された共分散構造は、意味的に類似したクラスと共起するクラスの間のラベルノイズの既知の情報源をキャプチャする。
We set a new-of-the-art results on WebVision 1.0 with 76.6% top-1 accuracy。
論文 参考訳(メタデータ) (2021-05-19T17:30:59Z) - Learning Attentive Pairwise Interaction for Fine-Grained Classification [53.66543841939087]
本稿では,細粒度分類のための簡易かつ効果的な監視ペアワイド・インタラクション・ネットワーク(API-Net)を提案する。
API-Netはまず相互機能ベクトルを学習し、入力ペアのセマンティックな違いをキャプチャする。
そして、この相互ベクトルと個々のベクトルを比較して、各入力画像のゲートを生成する。
詳細な分類において,5つの人気のあるベンチマークについて広範な実験を行った。
論文 参考訳(メタデータ) (2020-02-24T12:17:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。