論文の概要: Sparse Oblique Decision Trees: A Tool to Understand and Manipulate
Neural Net Features
- arxiv url: http://arxiv.org/abs/2104.02922v1
- Date: Wed, 7 Apr 2021 05:31:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 13:01:39.283311
- Title: Sparse Oblique Decision Trees: A Tool to Understand and Manipulate
Neural Net Features
- Title(参考訳): Sparse Oblique Decision Trees: ニューラルネットワークの特徴を理解し,操作するためのツール
- Authors: Suryabhan Singh Hada and Miguel \'A. Carreira-Perpi\~n\'an and Arman
Zharmagambetov
- Abstract要約: ニューラルネットワークによって計算される内部的特徴のどれが特定のクラスに責任を持つかを理解することに注力する。
我々は、ニューラルネットワークの機能を容易に操作できることを示し、ネットが所定のクラスを予測するかどうかを予測できるようにし、機能レベルで敵対的な攻撃を行うことができることを示した。
- 参考スコア(独自算出の注目度): 3.222802562733787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The widespread deployment of deep nets in practical applications has lead to
a growing desire to understand how and why such black-box methods perform
prediction. Much work has focused on understanding what part of the input
pattern (an image, say) is responsible for a particular class being predicted,
and how the input may be manipulated to predict a different class. We focus
instead on understanding which of the internal features computed by the neural
net are responsible for a particular class. We achieve this by mimicking part
of the neural net with an oblique decision tree having sparse weight vectors at
the decision nodes. Using the recently proposed Tree Alternating Optimization
(TAO) algorithm, we are able to learn trees that are both highly accurate and
interpretable. Such trees can faithfully mimic the part of the neural net they
replaced, and hence they can provide insights into the deep net black box.
Further, we show we can easily manipulate the neural net features in order to
make the net predict, or not predict, a given class, thus showing that it is
possible to carry out adversarial attacks at the level of the features. These
insights and manipulations apply globally to the entire training and test set,
not just at a local (single-instance) level. We demonstrate this robustly in
the MNIST and ImageNet datasets with LeNet5 and VGG networks.
- Abstract(参考訳): 実用的なアプリケーションへのディープネットの広範囲な展開は、このようなブラックボックスメソッドが予測を実行する方法と理由を理解するというニーズが高まっている。
多くの作業は、入力パターン(イメージなど)のどの部分が予測される特定のクラスに責任があるのか、入力をどのように操作して異なるクラスを予測するかを理解することに重点を置いています。
代わりに、ニューラルネットワークが計算する内部特徴のどれが特定のクラスに責任があるのかを理解することに焦点を合わせます。
我々は、ニューラルネットワークの一部を、決定ノードにスパース重みベクトルを持つ斜め決定木で模倣することで、これを実現する。
最近提案されたtree alternating optimization (tao)アルゴリズムを使うことで,高精度かつ解釈可能な木を学習することができる。
このような木は、置換したニューラルネットの一部を忠実に模倣することができるため、深いネットブラックボックスに関する洞察を与えることができる。
さらに,ニューラルネットの特徴を容易に操作して,ネットが与えられたクラスを予測したり予測したりしないようにし,特徴レベルにおいて敵攻撃を行うことが可能であることを示す。
これらの洞察と操作は、ローカル(単一インスタンス)レベルだけでなく、トレーニングとテストセット全体に適用されます。
我々は、MNISTとImageNetのデータセットで、LeNet5とVGGネットワークでこれを実証する。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Knowledge Distillation of Convolutional Neural Networks through Feature
Map Transformation using Decision Trees [2.06682776181122]
畳み込みニューラルネットワーク(CNN)の最終層から特徴を抽出する蒸留手法を提案する。
抽出した特徴は、深さとノードの制約の下で最良の精度を達成するために決定木を訓練するために使用される。
その結果,決定木を用いたCNNによる意思決定の解釈が促進された。
論文 参考訳(メタデータ) (2024-03-10T04:20:51Z) - Neural Networks are Decision Trees [0.0]
本稿では, 線形活性化関数を持つ任意のニューラルネットワークが決定木として表現可能であることを示す。
表現は等価であり近似ではないため、ニューラルネットワークの精度はそのままに保たれる。
論文 参考訳(メタデータ) (2022-10-11T06:49:51Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Detecting Modularity in Deep Neural Networks [8.967870619902211]
ネットワークニューロンの分割によるモジュラリティ評価の問題点を考察する。
本稿では,ニューロンがネットワーク性能にいかに重要かを反映した重要度と,そのニューロンが入力の特徴といかに常に関連しているかを反映したコヒーレンスという2つのプロキシを提案する。
これらの分割は、重みのみに基づくものであっても、重要で一貫性のあるニューロンのグループを明らかにします。
論文 参考訳(メタデータ) (2021-10-13T20:33:30Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Leveraging Sparse Linear Layers for Debuggable Deep Networks [86.94586860037049]
学習した深い特徴表現に疎い線形モデルを適用することで、よりデバッグ可能なニューラルネットワークを実現する方法を示す。
その結果、スパースな説明は、スプリアス相関を特定し、誤分類を説明し、視覚および言語タスクにおけるモデルバイアスを診断するのに役立ちます。
論文 参考訳(メタデータ) (2021-05-11T08:15:25Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z) - Locality Guided Neural Networks for Explainable Artificial Intelligence [12.435539489388708]
LGNN(Locality Guided Neural Network)と呼ばれる,バック伝搬のための新しいアルゴリズムを提案する。
LGNNはディープネットワークの各層内の隣接ニューロン間の局所性を保っている。
実験では,CIFAR100 上の画像分類のための様々な VGG と Wide ResNet (WRN) ネットワークを訓練した。
論文 参考訳(メタデータ) (2020-07-12T23:45:51Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z) - DeepStreamCE: A Streaming Approach to Concept Evolution Detection in
Deep Neural Networks [1.933681537640272]
DeepStreamCEは、ディープニューラルネットワークのリアルタイム概念進化検出にストリーミングアプローチを使用している。
我々は、CIFAR-10データセットからのデータの組み合わせに基づいて、VGG16畳み込みニューラルネットワークをトレーニングすることでDeepStreamCEを評価する。
比較のために、データとVGG16ネットワークをオープンセットのディープネットワークソリューションであるOpenMaxに適用する。
論文 参考訳(メタデータ) (2020-04-08T16:53:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。