論文の概要: What Do Deep Nets Learn? Class-wise Patterns Revealed in the Input Space
- arxiv url: http://arxiv.org/abs/2101.06898v2
- Date: Sat, 6 Feb 2021 05:09:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 05:57:06.370214
- Title: What Do Deep Nets Learn? Class-wise Patterns Revealed in the Input Space
- Title(参考訳): ディープネットは何を学べるか?
入力空間に現れるクラスワイドパターン
- Authors: Shihao Zhao, Xingjun Ma, Yisen Wang, James Bailey, Bo Li, Yu-Gang
Jiang
- Abstract要約: 本研究では,深層ニューラルネットワーク(DNN)が学習するクラスワイズな知識を,異なる環境下で可視化し,理解する手法を提案する。
本手法は,各クラスのモデルが学習した知識を表現するために,画素空間内の1つの予測パターンを探索する。
逆境環境では、逆境に訓練されたモデルはより単純化された形状パターンを学ぶ傾向がある。
- 参考スコア(独自算出の注目度): 88.37185513453758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are increasingly deployed in different
applications to achieve state-of-the-art performance. However, they are often
applied as a black box with limited understanding of what knowledge the model
has learned from the data. In this paper, we focus on image classification and
propose a method to visualize and understand the class-wise knowledge
(patterns) learned by DNNs under three different settings including natural,
backdoor and adversarial. Different to existing visualization methods, our
method searches for a single predictive pattern in the pixel space to represent
the knowledge learned by the model for each class. Based on the proposed
method, we show that DNNs trained on natural (clean) data learn abstract shapes
along with some texture, and backdoored models learn a suspicious pattern for
the backdoored class. Interestingly, the phenomenon that DNNs can learn a
single predictive pattern for each class indicates that DNNs can learn a
backdoor even from clean data, and the pattern itself is a backdoor trigger. In
the adversarial setting, we show that adversarially trained models tend to
learn more simplified shape patterns. Our method can serve as a useful tool to
better understand the knowledge learned by DNNs on different datasets under
different settings.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、最先端のパフォーマンスを達成するために、さまざまなアプリケーションにますますデプロイされている。
しかしながら、モデルがデータから学んだ知識を限定的に理解したブラックボックスとしてしばしば適用される。
本稿では,画像分類に着目し,dnnが自然,バックドア,敵意の3つの設定で学習したクラス毎の知識(パターン)を可視化・理解する手法を提案する。
既存の可視化手法と異なり,各クラスでモデルによって学習された知識を表現するために,画素空間内の単一の予測パターンを探索する。
提案手法に基づいて,自然(クリーン)データに基づいて訓練されたDNNが抽象的な形状とテクスチャを学習し,バックドアモデルがバックドアクラスの不審なパターンを学習することを示す。
興味深いことに、DNNが各クラスの単一の予測パターンを学習できる現象は、DNNがクリーンデータからでもバックドアを学習できることを示し、パターン自体がバックドアトリガーである。
逆境環境では、逆境に訓練されたモデルはより単純化された形状パターンを学ぶ傾向がある。
提案手法は,異なるデータセット上でDNNが学習した知識をよりよく理解するための有用なツールとして機能する。
関連論文リスト
- Towards Deep Network Steganography: From Networks to Networks [23.853644434004135]
DNNモデルの秘密通信のためのディープネットワークステガノグラフィーを提案する。
我々の手法は、秘密のDNNモデルの学習タスクを他の通常の学習タスクに偽装する、タスク指向の学習である。
タスク内ステガノグラフィーとタスク間ステガノグラフィーの両方について実験を行った。
論文 参考訳(メタデータ) (2023-07-07T08:02:01Z) - Visual Recognition with Deep Nearest Centroids [57.35144702563746]
我々は、概念的にエレガントで驚くほど効果的な大規模視覚認識ネットワークである深部セントロイド(DNC)を考案した。
パラメトリックと比較すると、DNCは画像分類(CIFAR-10, ImageNet)に優れ、画像認識(ADE20K, Cityscapes)を大いに起動する。
論文 参考訳(メタデータ) (2022-09-15T15:47:31Z) - Visualizing the Emergence of Intermediate Visual Patterns in DNNs [19.043540343193946]
本稿では,DNNで符号化された中間層視覚パターンの識別能力を可視化する手法を提案する。
DNNは、トレーニングプロセス中に、各中間層における局所的な視覚パターンを徐々に学習する様子を可視化する。
この手法はまた、敵の攻撃や知識の蒸留など、既存の深層学習技術の信号処理行動に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2021-11-05T13:49:39Z) - Reasoning-Modulated Representations [85.08205744191078]
タスクが純粋に不透明でないような共通的な環境について研究する。
我々のアプローチは、新しいデータ効率表現学習の道を開く。
論文 参考訳(メタデータ) (2021-07-19T13:57:13Z) - Wider Vision: Enriching Convolutional Neural Networks via Alignment to
External Knowledge Bases [0.3867363075280543]
CNNのミラーリングまたはアライメントを通じて、CNNのモデルを外部の知識ベースに説明し、拡張することを目指しています。
これにより、視覚機能ごとにセマンティックなコンテキストやラベルを与えることができます。
その結果,アライメント埋め込み空間では,ナレッジグラフのノードは類似した意味を持つcnn特徴ノードに近いことがわかった。
論文 参考訳(メタデータ) (2021-02-22T16:00:03Z) - Streaming Graph Neural Networks via Continual Learning [31.810308087441445]
グラフニューラルネットワーク(GNN)は様々なアプリケーションで高いパフォーマンスを実現している。
本稿では,連続学習に基づくストリーミングGNNモデルを提案する。
モデルパラメータを効率的に更新し、モデル再トレーニングに匹敵する性能が得られることを示す。
論文 参考訳(メタデータ) (2020-09-23T06:52:30Z) - Explaining Deep Neural Networks using Unsupervised Clustering [12.639074798397619]
本稿では、教師なしクラスタリングを用いて、訓練された深層ニューラルネットワーク(DNN)を代理モデルに蒸留することで、新しい説明法を提案する。
提案手法はDNNアーキテクチャの任意のレイヤに柔軟に適用可能であり,低レベルかつ高レベルな情報を組み込むことができる。
論文 参考訳(メタデータ) (2020-07-15T04:49:43Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。