論文の概要: CGDTest: A Constrained Gradient Descent Algorithm for Testing Neural
Networks
- arxiv url: http://arxiv.org/abs/2304.01826v1
- Date: Tue, 4 Apr 2023 14:31:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 13:41:00.226360
- Title: CGDTest: A Constrained Gradient Descent Algorithm for Testing Neural
Networks
- Title(参考訳): CGDTest: ニューラルネットワークをテストするための制約付きグラディエントDescentアルゴリズム
- Authors: Vineel Nagisetty, Laura Graves, Guanting Pan, Piyush Jha, Vijay Ganesh
- Abstract要約: 本稿では,CGD法 (Constrained Gradient Descent) と呼ばれる新しいDeep Neural Network (DNN) テストアルゴリズムを提案する。
我々のCGDアルゴリズムは、ユーザが論理特性を指定できるツイストを持つ勾配差分法(GD)である。
- 参考スコア(独自算出の注目度): 12.771027065674486
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a new Deep Neural Network (DNN) testing algorithm
called the Constrained Gradient Descent (CGD) method, and an implementation we
call CGDTest aimed at exposing security and robustness issues such as
adversarial robustness and bias in DNNs. Our CGD algorithm is a
gradient-descent (GD) method, with the twist that the user can also specify
logical properties that characterize the kinds of inputs that the user may
want. This functionality sets CGDTest apart from other similar DNN testing
tools since it allows users to specify logical constraints to test DNNs not
only for $\ell_p$ ball-based adversarial robustness but, more importantly,
includes richer properties such as disguised and flow adversarial constraints,
as well as adversarial robustness in the NLP domain. We showcase the utility
and power of CGDTest via extensive experimentation in the context of vision and
NLP domains, comparing against 32 state-of-the-art methods over these diverse
domains. Our results indicate that CGDTest outperforms state-of-the-art testing
tools for $\ell_p$ ball-based adversarial robustness, and is significantly
superior in testing for other adversarial robustness, with improvements in PAR2
scores of over 1500% in some cases over the next best tool. Our evaluation
shows that our CGD method outperforms competing methods we compared against in
terms of expressibility (i.e., a rich constraint language and concomitant tool
support to express a wide variety of properties), scalability (i.e., can be
applied to very large real-world models with up to 138 million parameters), and
generality (i.e., can be used to test a plethora of model architectures).
- Abstract(参考訳): 本稿では,新しいDeep Neural Network (DNN) テストアルゴリズムである Constrained Gradient Descent (CGD) を提案する。
我々のCGDアルゴリズムは、ユーザが望む入力の種類を特徴付ける論理的特性も指定できるグラデーション・ディフレクション(GD)法である。
この機能により、cgdtestは他のdnnテストツールと異なり、$\ell_p$ ボールベースの逆ロバスト性だけでなく、偽装やフロー逆制約のようなリッチなプロパティや、nlpドメインの逆ロバスト性を含む、dnnをテストするための論理的制約を指定することができる。
視覚領域とNLP領域における広範な実験を通してCGDTestの有用性とパワーを実証し、これらの多様な領域における32の最先端手法と比較した。
以上の結果から,CGDTestはボールベース対向ロバストネスにおいて最先端の試験ツールよりも優れており,他の対向ロバストネスでは極めて優れており,次のツールではPAR2スコアが1500%以上改善されている。
我々のCGD法は,表現性(多種多様な特性を表現するためのリッチな制約言語と共用ツールサポート),スケーラビリティ(最大1億1800万のパラメータを持つ非常に大きな実世界のモデルに適用できる),一般性(モデルアーキテクチャの多元性をテストするために使用できる)において,比較した競合する手法よりも優れていることを示す。
関連論文リスト
- Theoretically Achieving Continuous Representation of Oriented Bounding Boxes [64.15627958879053]
本論文は,オブジェクト指向境界ボックス表現における不連続性を完全に解決しようとする試みである。
本研究では,既存の検出器に容易に統合可能なCOBB(Continuous OBB)という新しい表現法を提案する。
OOD評価のためのオープンソースのディープラーニングフレームワークJittorの検出ツールボックスJDetをベースとした,モジュール化されたベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-29T09:27:40Z) - DeepPerform: An Efficient Approach for Performance Testing of
Resource-Constrained Neural Networks [8.185330904123374]
リソース制約のある組み込みデバイスでは、AdNN(Adaptive Deep Neural Networks)の数が増えている。
AdNNがリソース制約のあるアプリケーションのパフォーマンス要件を満たすためには、パフォーマンステストを実施することが不可欠である。
既存のニューラルネットワークテスト手法は主に、パフォーマンステストを必要としない正確性テストに関係している。
本稿では,AdNNにおけるIDPBを検出するために,テストサンプルを生成するスケーラブルなアプローチであるDeepPerformを提案する。
論文 参考訳(メタデータ) (2022-10-10T03:50:16Z) - DiverGet: A Search-Based Software Testing Approach for Deep Neural
Network Quantization Assessment [10.18462284491991]
量子化は、最も応用されたディープニューラルネットワーク(DNN)圧縮戦略の1つである。
量子化評価のための検索ベースのテストフレームワークであるDiverGetを提案する。
ハイパースペクトルリモートセンシング画像に適用した最先端DNNにおけるDiverGetの性能評価を行った。
論文 参考訳(メタデータ) (2022-07-13T15:27:51Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Abstraction and Symbolic Execution of Deep Neural Networks with Bayesian
Approximation of Hidden Features [8.723426955657345]
本稿では,ディープニューラルネットワークとデータセットをベイズネットワークに抽象化する新しい抽象化手法を提案する。
我々は,DNNの隠蔽層から学習した隠れ特徴を特定するために,次元削減技術を利用している。
運用時間に稀な入力を検出するランタイム監視アプローチを導出できる。
論文 参考訳(メタデータ) (2021-03-05T14:28:42Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Designing Interpretable Approximations to Deep Reinforcement Learning [14.007731268271902]
ディープニューラルネットワーク(DNN)は、アルゴリズムのパフォーマンスのバーを設定する。
実際にそのようなハイパフォーマンスなDNNを使うことは不可能かもしれない。
この研究は、所望のパフォーマンスレベルを保持するだけでなく、例えば、DNNで表される潜伏した知識を簡潔に説明できるような縮小モデルを特定することを目指している。
論文 参考訳(メタデータ) (2020-10-28T06:33:09Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Towards an Efficient and General Framework of Robust Training for Graph
Neural Networks [96.93500886136532]
グラフニューラルネットワーク(GNN)は、いくつかの基本的な推論タスクに大きく進歩している。
GNNの目覚ましい性能にもかかわらず、グラフ構造上の摂動を慎重に作り、誤った予測を下すことが観察されている。
我々は,強靭なGNNを得るために,欲求探索アルゴリズムとゼロ階法を利用する汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T15:17:58Z) - Scalable Quantitative Verification For Deep Neural Networks [44.570783946111334]
ディープニューラルネットワーク(DNN)のためのテスト駆動検証フレームワークを提案する。
本手法は,形式的確率特性の健全性が証明されるまで,十分な試験を行う。
われわれの研究は、現実世界のディープニューラルネットワークが捉えた分布の性質を、証明可能な保証で検証する方法を開拓している。
論文 参考訳(メタデータ) (2020-02-17T09:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。