論文の概要: SyReNN: A Tool for Analyzing Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2101.03263v1
- Date: Sat, 9 Jan 2021 00:27:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 07:21:07.559061
- Title: SyReNN: A Tool for Analyzing Deep Neural Networks
- Title(参考訳): SyReNN: ディープニューラルネットワークの分析ツール
- Authors: Matthew Sotoudeh and Aditya V. Thakur
- Abstract要約: ディープニューラルネットワーク(DNN)は、さまざまな重要なドメインで急速に人気を集めています。
本稿では,そのシンボル表現を計算してDNNの理解と分析を行うSyReNNを紹介する。
- 参考スコア(独自算出の注目度): 8.55884254206878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are rapidly gaining popularity in a variety of
important domains. Formally, DNNs are complicated vector-valued functions which
come in a variety of sizes and applications. Unfortunately, modern DNNs have
been shown to be vulnerable to a variety of attacks and buggy behavior. This
has motivated recent work in formally analyzing the properties of such DNNs.
This paper introduces SyReNN, a tool for understanding and analyzing a DNN by
computing its symbolic representation. The key insight is to decompose the DNN
into linear functions. Our tool is designed for analyses using low-dimensional
subsets of the input space, a unique design point in the space of DNN analysis
tools. We describe the tool and the underlying theory, then evaluate its use
and performance on three case studies: computing Integrated Gradients,
visualizing a DNN's decision boundaries, and patching a DNN.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、さまざまな重要なドメインで急速に人気を集めています。
形式的には、DNNは様々なサイズと応用の複雑なベクトル値関数である。
残念なことに、現代のDNNは様々な攻撃やバギーな振る舞いに弱いことが示されている。
これは、そのようなDNNの特性を公式に分析する最近の研究の動機となった。
本稿では,そのシンボル表現を計算してDNNの理解と分析を行うSyReNNを紹介する。
重要な洞察は、DNNを線形関数に分解することである。
本ツールはDNN解析ツールの空間におけるユニークな設計点である入力空間の低次元部分集合を用いて解析するために設計されている。
ツールとその基礎となる理論を記述し、その使用と性能を3つのケーススタディで評価する: 計算統合グラディエント、DNNの決定境界の可視化、DNNのパッチング。
関連論文リスト
- NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - Harnessing Neuron Stability to Improve DNN Verification [42.65507402735545]
我々は最近提案されたDPLLベースの制約DNN検証手法の拡張であるVeriStableを提案する。
完全接続型フィードネットワーク(FNN)、畳み込み型ニューラルネットワーク(CNN)、残留型ネットワーク(ResNet)など、さまざまな課題のあるベンチマークにおいてVeriStableの有効性を評価する。
予備的な結果は、VeriStableは、VNN-COMPの第1および第2のパフォーマーである$alpha$-$beta$-CROWNやMN-BaBなど、最先端の検証ツールよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-01-19T23:48:04Z) - Uncovering the Representation of Spiking Neural Networks Trained with
Surrogate Gradient [11.0542573074431]
スパイキングニューラルネットワーク (SNN) は、その生物の楽観性とエネルギー効率のため、次世代ニューラルネットワークの候補として認識されている。
近年、SNNは、代理勾配トレーニングを用いて、画像認識タスクにおいて、ほぼ最先端のパフォーマンスを達成できることを示した。
論文 参考訳(メタデータ) (2023-04-25T19:08:29Z) - Distributed Graph Neural Network Training: A Survey [51.77035975191926]
グラフニューラルネットワーク(GNN)は、グラフに基づいてトレーニングされたディープラーニングモデルの一種で、さまざまな領域にうまく適用されている。
GNNの有効性にもかかわらず、GNNが大規模グラフに効率的にスケールすることは依然として困難である。
治療法として、分散コンピューティングは大規模GNNをトレーニングするための有望なソリューションとなる。
論文 参考訳(メタデータ) (2022-11-01T01:57:00Z) - Wide and Deep Graph Neural Network with Distributed Online Learning [174.8221510182559]
グラフニューラルネットワーク(GNN)は、ネットワークデータから表現を学習するための、自然に分散したアーキテクチャである。
オンライン学習は、この問題を克服するためにテスト時にGNNを再トレーニングするために利用することができる。
本稿では,分散オンライン学習機構で更新可能な新しいアーキテクチャであるWide and Deep GNN(WD-GNN)を開発する。
論文 参考訳(メタデータ) (2021-07-19T23:56:48Z) - Abstract Neural Networks [7.396342576390398]
本稿では,Deep Neural Networks (DNN) の音響的オーバー近似に使用できる抽象ニューラルネットワーク (ANN) の概念を紹介する。
本稿では、DNNで使用される抽象ドメインとアクティベーション関数によってパラメータ化され、対応するANNを構築するのに使用できるフレームワークを提案する。
我々のフレームワークは、オクタゴンやポリヘドラといった他の抽象ドメインや、Leaky ReLU、Sigmoid、Hyperbolic Tangentといった他のアクティベーション関数とインスタンス化することができる。
論文 参考訳(メタデータ) (2020-09-11T21:17:38Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - An Efficient Spiking Neural Network for Recognizing Gestures with a DVS
Camera on the Loihi Neuromorphic Processor [12.118084418840152]
Spiking Neural Networks(SNN)は、機械学習ベースのアプリケーションにおいて注目を浴びている。
本稿では,対応するディープニューラルネットワーク(DNN)とほぼ同じ精度のSNNの設計手法を示す。
我々のSNNは89.64%の分類精度を達成し、37のLoihiコアしか占有していない。
論文 参考訳(メタデータ) (2020-05-16T17:00:10Z) - CodNN -- Robust Neural Networks From Coded Classification [27.38642191854458]
ディープニューラルネットワーク(Deep Neural Networks、DNN)は、現在進行中の情報革命における革命的な力である。
DNNは、敵対的であろうとランダムであろうと、ノイズに非常に敏感である。
これは、DNNのハードウェア実装と、自律運転のような重要なアプリケーションへの展開において、根本的な課題となる。
提案手法により,DNNのデータ層あるいは内部層は誤り訂正符号で符号化され,ノイズ下での計算が成功することが保証される。
論文 参考訳(メタデータ) (2020-04-22T17:07:15Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。