論文の概要: DeepSensor: Deep Learning Testing Framework Based on Neuron Sensitivity
- arxiv url: http://arxiv.org/abs/2202.07464v1
- Date: Sat, 12 Feb 2022 16:44:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 13:19:03.266032
- Title: DeepSensor: Deep Learning Testing Framework Based on Neuron Sensitivity
- Title(参考訳): DeepSensor: ニューロンの感度に基づくディープラーニングテストフレームワーク
- Authors: Haibo Jin, Ruoxi Chen, Haibin Zheng, Jinyin Chen, Zhenguang Liu, Qi
Xuan, Yue Yu, Yao Cheng
- Abstract要約: 既存の試験法は、ニューロンのカバレッジに基づいたきめ細かい基準を提供し、高い探索的な試験レベルに達した。
このギャップを埋めるために、小さな摂動によって活性化値が劇的に変化するニューロンは、誤ったコーナーケースを誘発する傾向が見られた。
そこで我々はDNNのための新しいホワイトボックステストフレームワークを提案し,DeepSensorとして寄贈した。
- 参考スコア(独自算出の注目度): 20.40306955830653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite impressive capabilities and outstanding performance, deep neural
network(DNN) has captured increasing public concern for its security problem,
due to frequent occurrence of erroneous behaviors. Therefore, it is necessary
to conduct systematically testing before its deployment to real-world
applications. Existing testing methods have provided fine-grained criteria
based on neuron coverage and reached high exploratory degree of testing. But
there is still a gap between the neuron coverage and model's robustness
evaluation. To bridge the gap, we observed that neurons which change the
activation value dramatically due to minor perturbation are prone to trigger
incorrect corner cases. Motivated by it, we propose neuron sensitivity and
develop a novel white-box testing framework for DNN, donated as DeepSensor. The
number of sensitive neurons is maximized by particle swarm optimization, thus
diverse corner cases could be triggered and neuron coverage be further improved
when compared with baselines. Besides, considerable robustness enhancement can
be reached when adopting testing examples based on neuron sensitivity for
retraining. Extensive experiments implemented on scalable datasets and models
can well demonstrate the testing effectiveness and robustness improvement of
DeepSensor.
- Abstract(参考訳): 優れた機能と優れたパフォーマンスにもかかわらず、ディープニューラルネットワーク(DNN)は、誤動作の頻発により、セキュリティ問題に対する公衆の懸念が高まっている。
したがって、実際のアプリケーションへのデプロイ前に体系的なテストを行う必要がある。
既存の試験法は、ニューロンのカバレッジに基づいたきめ細かい基準を提供し、高い探索的な試験レベルに達した。
しかし、ニューロンのカバレッジとモデルの堅牢性評価の間にはまだギャップがある。
このギャップを埋めるために,小さな摂動によって活性化値を劇的に変化させるニューロンが,不正確なコーナーケースを発生させる傾向が観察された。
そこで我々はDNNのための新しいホワイトボックステストフレームワークを提案し,DeepSensorとして寄贈した。
感度ニューロンの数は粒子群最適化によって最大化されるため、多様なコーナーケースが引き起こされ、ベースラインと比較してニューロンのカバレッジがさらに向上する。
さらに、再トレーニングにニューロンの感度に基づいたテスト例を採用すると、かなりの堅牢性向上が得られる。
スケーラブルなデータセットとモデルに実装された広範な実験は、deepsensorのテスト効率と堅牢性の改善を実証する。
関連論文リスト
- Neuroevolutionary algorithms driven by neuron coverage metrics for
semi-supervised classification [60.60571130467197]
一部の機械学習アプリケーションでは、ラベル付けされていないインスタンスが豊富であるのに対して、教師付き分類のためのラベル付きインスタンスの可用性は制限されている。
本稿では、ニューラルネットワークアーキテクチャ上で計算されたニューラルネットワークカバレッジメトリクスを用いて、未ラベルのインスタンスを利用する神経進化的アプローチを提案する。
論文 参考訳(メタデータ) (2023-03-05T23:38:44Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Improving Adversarial Transferability via Neuron Attribution-Based
Attacks [35.02147088207232]
本稿では,より正確なニューロン重要度推定を行う機能レベルアタック(NAA)を提案する。
我々は、オーバーヘッドを大幅に減らすために、ニューロンの属性の近似スキームを導出する。
実験により、最先端のベンチマークに対する我々のアプローチの優位性が確認された。
論文 参考訳(メタデータ) (2022-03-31T13:47:30Z) - Improving Spiking Neural Network Accuracy Using Time-based Neurons [0.24366811507669117]
アナログニューロンを用いた低消費電力スパイクニューラルネットワークに基づくニューロモルフィックコンピューティングシステムの研究が注目されている。
技術のスケールダウンに伴い、アナログニューロンはスケールが難しく、電圧ヘッドルーム/ダイナミックレンジの減少と回路の非線形性に悩まされる。
本稿では,28nmプロセスで設計した既存の電流ミラー型電圧ドメインニューロンの非線形挙動をモデル化し,ニューロンの非線形性の影響によりSNN推定精度を著しく劣化させることができることを示す。
本稿では,時間領域のスパイクを処理し,線形性を大幅に向上させる新しいニューロンを提案する。
論文 参考訳(メタデータ) (2022-01-05T00:24:45Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - The Compact Support Neural Network [6.47243430672461]
本研究では, 標準ドット生成物に基づくニューロンとRBFニューロンを, 形状パラメータの2つの極端な場合として提示する。
トレーニングされた標準ニューラルネットワークから始めて、必要な値まで形状パラメータを徐々に増加させることで、そのようなニューロンによるニューラルネットワークのトレーニングの難しさを回避する方法を示す。
論文 参考訳(メタデータ) (2021-04-01T06:08:09Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - SeReNe: Sensitivity based Regularization of Neurons for Structured
Sparsity in Neural Networks [13.60023740064471]
SeReNeはスパーストポロジを構造で学習する方法である。
ニューロンの感度をネットワーク出力の変動として定義する。
コスト関数のニューロン感度を正規化用語に含めることで、低感度でニューロンをプーンすることができる。
論文 参考訳(メタデータ) (2021-02-07T10:53:30Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z) - Investigation and Analysis of Hyper and Hypo neuron pruning to
selectively update neurons during Unsupervised Adaptation [8.845660219190298]
プルーニングアプローチは、モデルの決定に寄与しない低塩性ニューロンを求める。
この研究は、プルーニングアプローチが、高塩分(主に活性または超活性)または低塩分(ほとんど活性または偽)のニューロンを検出することに成功しているかどうかを調査する。
これは、まず特定のニューロン(高次ニューロンと低次ニューロンからなる)を選択的に適応させ、次にフルネットワークの微調整を行うことが可能であることを示している。
論文 参考訳(メタデータ) (2020-01-06T19:46:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。