論文の概要: Scalable and Modular Robustness Analysis of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2108.11651v2
- Date: Tue, 31 Aug 2021 11:47:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-12 12:05:03.831486
- Title: Scalable and Modular Robustness Analysis of Deep Neural Networks
- Title(参考訳): 深層ニューラルネットワークのスケーラブルでモジュラーなロバストネス解析
- Authors: Yuyi Zhong, Quang-Trung Ta, Tianzuo Luo, Fanlong Zhang, Siau-Cheng
Khoo
- Abstract要約: 本稿では,ネットワークをブロックに分割し,各ブロックについて解析を行うことにより,ニューラルネットワークのモジュラー解析を提案する。
我々は、最先端アナライザDeepPolyのCPU変換のコンテキストでメソッドをインスタンス化する。
実験結果から,提案手法はDeepPolyと同等の精度が得られるが,高速に動作し,計算資源の削減を図っている。
- 参考スコア(独自算出の注目度): 2.1917938338938465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As neural networks are trained to be deeper and larger, the scalability of
neural network analyzers is urgently required. The main technical insight of
our method is modularly analyzing neural networks by segmenting a network into
blocks and conduct the analysis for each block. In particular, we propose the
network block summarization technique to capture the behaviors within a network
block using a block summary and leverage the summary to speed up the analysis
process. We instantiate our method in the context of a CPU-version of the
state-of-the-art analyzer DeepPoly and name our system as Bounded-Block Poly
(BBPoly). We evaluate BBPoly extensively on various experiment settings. The
experimental result indicates that our method yields comparable precision as
DeepPoly but runs faster and requires less computational resources. For
example, BBPoly can analyze really large neural networks like SkipNet or ResNet
which contain up to one million neurons in less than around 1 hour per input
image, while DeepPoly needs to spend even 40 hours to analyze one image.
- Abstract(参考訳): ニューラルネットワークはより深く、より大きく訓練されるため、ニューラルネットワークアナライザのスケーラビリティは緊急に必要である。
本手法の主な技術的洞察は,ネットワークをブロックに分割し,各ブロックについて解析を行うことによって,ニューラルネットワークをモジュラー解析することである。
特に,ブロック要約を用いてネットワークブロック内の動作をキャプチャし,その要約を利用して解析プロセスを高速化するネットワークブロック要約手法を提案する。
我々は,最先端アナライザDeepPolyのCPU変換の文脈でメソッドをインスタンス化し,システム名をBounded-Block Poly (BBPoly)と命名する。
我々はbbpolyを様々な実験環境で広範囲に評価する。
実験結果から,提案手法はDeepPolyと同等の精度が得られるが,高速に動作し,計算資源の削減を図っている。
たとえばBBPolyは、SkipNetやResNetのような、入力画像当たり1時間以内で最大100万のニューロンを含む、本当に大きなニューラルネットワークを分析できる。
関連論文リスト
- Output Range Analysis for Deep Neural Networks based on Simulated Annealing Processes [0.0]
本稿では,Deep Neural Networks (DNN) のレンジ推定手法を提案する。
提案手法はDNNにおける局所的幾何学的情報の欠如と非線形性に対処し,多目的性を実現する。
制約的な仮定を避けるための単純でフレンドリーなアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-02T22:47:40Z) - PURE: Turning Polysemantic Neurons Into Pure Features by Identifying Relevant Circuits [12.17671779091913]
本稿では、複数の単意味「仮想」ニューロンにポリセマンティックニューロンを分解することで、あらゆるディープニューラルネットワークのポリセマンティック性を遠ざける方法を提案する。
私たちは、ImageNetでトレーニングされたResNetモデルの多意味ユニットを、どのように見つけ、切り離すことができるかを示します。
論文 参考訳(メタデータ) (2024-04-09T16:54:19Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - When Deep Learning Meets Polyhedral Theory: A Survey [6.899761345257773]
過去10年間で、ディープ・ニューラル・ラーニングの顕著な精度のおかげで、ディープは予測モデリングの一般的な方法論となった。
一方、ニューラルネットワークの構造はより単純で線形な関数に収束した。
論文 参考訳(メタデータ) (2023-04-29T11:46:53Z) - The Spectral Bias of Polynomial Neural Networks [63.27903166253743]
PNN(Polynomial Neural Network)は、高頻度情報を重要視する画像生成と顔認識に特に有効であることが示されている。
これまでの研究では、ニューラルネットワークが低周波関数に対して$textitspectral bias$を示しており、トレーニング中に低周波成分のより高速な学習をもたらすことが示されている。
このような研究に触発されて、我々はPNNのTangent Kernel(NTK)のスペクトル分析を行う。
我々は、最近提案されたPNNのパラメトリゼーションである$Pi$-Netファミリがスピードアップすることを発見した。
論文 参考訳(メタデータ) (2022-02-27T23:12:43Z) - Reachability Analysis of Convolutional Neural Networks [10.384532888747993]
入力領域が与えられたネットワークの正確な到達可能な集合を計算するためのアプローチを提案する。
私たちのアプローチは、出力到達可能なセットが与えられた入力ドメインへのバックトラックも可能です。
到達可能な集合の高速計算を行う高速解析手法も提案されている。
論文 参考訳(メタデータ) (2021-06-22T21:42:00Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - Scaling Polyhedral Neural Network Verification on GPUs [1.78607099468769]
我々は、非常に大きなディープニューラルネットワークの堅牢性を証明するスケーラブルな検証器であるGPUPolyを紹介する。
我々のアルゴリズムは、基盤となる検証タスクの利用可能なGPU並列性と固有の疎性を活用する。
GPUPolyは、現実のニューラルネットワークの実践的検証に向けた、有望なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2020-07-20T16:09:07Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Automatic Perturbation Analysis for Scalable Certified Robustness and
Beyond [171.07853346630057]
ニューラルネットワークに対する線形緩和に基づく摂動解析(LiRPA)は、堅牢性検証と認証防御のコアコンポーネントとなっている。
我々は任意のニューラルネットワーク構造上で摂動解析を可能にするための自動フレームワークを開発する。
我々は、Tiny ImageNetとDownscaled ImageNetのLiRPAベースの認証防御を実証する。
論文 参考訳(メタデータ) (2020-02-28T18:47:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。