論文の概要: Using Z3 for Formal Modeling and Verification of FNN Global Robustness
- arxiv url: http://arxiv.org/abs/2304.10558v2
- Date: Mon, 24 Apr 2023 05:53:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 11:09:37.750931
- Title: Using Z3 for Formal Modeling and Verification of FNN Global Robustness
- Title(参考訳): Z3を用いたFNNグローバルロバストネスの形式的モデリングと検証
- Authors: Yihao Zhang, Zeming Wei, Xiyue Zhang, Meng Sun
- Abstract要約: SMTソルバZ3を用いたDeepGlobalの完全な仕様と実装を提案する。
実装の有効性と改善性を評価するため、ベンチマークデータセットのセットに対して広範な実験を行う。
- 参考スコア(独自算出の注目度): 15.331024247043999
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Feedforward Neural Networks (FNNs) have achieved remarkable success in
various tasks, they are vulnerable to adversarial examples. Several techniques
have been developed to verify the adversarial robustness of FNNs, but most of
them focus on robustness verification against the local perturbation
neighborhood of a single data point. There is still a large research gap in
global robustness analysis. The global-robustness verifiable framework
DeepGlobal has been proposed to identify \textit{all} possible Adversarial
Dangerous Regions (ADRs) of FNNs, not limited to data samples in a test set. In
this paper, we propose a complete specification and implementation of
DeepGlobal utilizing the SMT solver Z3 for more explicit definition, and
propose several improvements to DeepGlobal for more efficient verification. To
evaluate the effectiveness of our implementation and improvements, we conduct
extensive experiments on a set of benchmark datasets. Visualization of our
experiment results shows the validity and effectiveness of the approach.
- Abstract(参考訳): feedforward neural networks(fnn)は様々なタスクで顕著な成功を収めているが、敵の例に弱い。
fnnの逆ロバスト性を検証するためにいくつかの技術が開発されているが、そのほとんどは単一のデータポイントの局所摂動近傍に対するロバスト性検証に焦点を当てている。
グローバルロバストネス分析には依然として大きな研究ギャップがある。
グローバル・ロバスト性検証フレームワークであるDeepGlobalは、テストセット内のデータサンプルに限らず、FNNのAdversarial Dangerous Region(ADR)を識別するために提案されている。
本稿では,より明示的な定義のためにSMTソルバZ3を用いたDeepGlobalの完全な仕様と実装を提案し,より効率的な検証のためにDeepGlobalのいくつかの改良を提案する。
実装の有効性と改善性を評価するため、ベンチマークデータセットのセットに対して広範な実験を行う。
実験結果の可視化は,提案手法の有効性と有効性を示している。
関連論文リスト
- Certifying Global Robustness for Deep Neural Networks [3.8556106468003613]
グローバルなディープニューラルネットワークは、すべての意味のある入力に対する摂動に抵抗する。
現在のロバストネス認証手法は、局所ロバストネスを強調し、スケールと一般化に苦慮している。
本稿では,ディープニューラルネットワークのグローバルロバスト性を評価・検証するための体系的かつ効率的な手法を提案する。
論文 参考訳(メタデータ) (2024-05-31T00:46:04Z) - A Survey of Graph Neural Networks in Real world: Imbalance, Noise,
Privacy and OOD Challenges [75.37448213291668]
本稿では,既存のグラフニューラルネットワーク(GNN)を体系的にレビューする。
まず、既存のGNNが直面している4つの重要な課題を強調し、現実のGNNモデルを探究する道を開く。
論文 参考訳(メタデータ) (2024-03-07T13:10:37Z) - Locate and Verify: A Two-Stream Network for Improved Deepfake Detection [33.50963446256726]
現在のディープフェイク検出法は一般に一般化が不十分である。
本稿では,モデルがエビデンスを抽出する潜在的領域を効果的に拡大する,革新的な2ストリームネットワークを提案する。
また、パッチレベルの偽位置アノテーションを推定するための半教師付きパッチ類似性学習戦略を提案する。
論文 参考訳(メタデータ) (2023-09-20T08:25:19Z) - Enumerating Safe Regions in Deep Neural Networks with Provable
Probabilistic Guarantees [86.1362094580439]
安全プロパティとDNNが与えられた場合、安全であるプロパティ入力領域のすべての領域の集合を列挙する。
この問題の #P-hardness のため,epsilon-ProVe と呼ばれる効率的な近似法を提案する。
提案手法は, 許容限界の統計的予測により得られた出力可到達集合の制御可能な過小評価を利用する。
論文 参考訳(メタデータ) (2023-08-18T22:30:35Z) - Exploring the Physical World Adversarial Robustness of Vehicle Detection [13.588120545886229]
アドリアックは現実世界の検知モデルの堅牢性を損なう可能性がある。
CARLAシミュレータを用いた革新的なインスタントレベルデータ生成パイプラインを提案する。
本研究は, 逆境条件下での多種多様なモデル性能について考察した。
論文 参考訳(メタデータ) (2023-08-07T11:09:12Z) - Generalizability of Adversarial Robustness Under Distribution Shifts [57.767152566761304]
本研究は, 実証的, 証明された敵対的堅牢性間の相互作用と, ドメインの一般化を両立させるための第一歩を踏み出した。
複数のドメインでロバストモデルをトレーニングし、その正確性とロバスト性を評価する。
本研究は, 現実の医療応用をカバーするために拡張され, 敵の増大は, クリーンデータ精度に最小限の影響を伴って, 強靭性の一般化を著しく促進する。
論文 参考訳(メタデータ) (2022-09-29T18:25:48Z) - Unsupervised Domain Adaptation for Monocular 3D Object Detection via
Self-Training [57.25828870799331]
我々は、Mono3D上での教師なしドメイン適応のための新しい自己学習フレームワークSTMono3Dを提案する。
対象ドメイン上で適応的な擬似ラベルを生成するための教師学生パラダイムを開発する。
STMono3Dは、評価されたすべてのデータセットで顕著なパフォーマンスを達成し、KITTI 3Dオブジェクト検出データセットの完全な教師付き結果を超えています。
論文 参考訳(メタデータ) (2022-04-25T12:23:07Z) - On the Robustness and Generalization of Deep Learning Driven Full
Waveform Inversion [2.5382095320488665]
フルウェーブフォーム・インバージョン(FWI)は画像から画像への変換タスクとして一般的にエピトマイズされる。
合成データでトレーニングされているにもかかわらず、ディープラーニング駆動のFWIは、十分な実世界のデータで評価すると、良好に動作することが期待されている。
これらのディープニューラルネットワークはどの程度堅牢で、どのように一般化されているのか?
論文 参考訳(メタデータ) (2021-11-28T19:27:59Z) - A Survey on Assessing the Generalization Envelope of Deep Neural
Networks: Predictive Uncertainty, Out-of-distribution and Adversarial Samples [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くのアプリケーションで最先端のパフォーマンスを達成する。
入力を受けたDNNが、通常、その決定基準が不透明であるため、正しい出力を提供するかどうかを事前に判断することは困難である。
本調査は,機械学習手法,特にDNNの一般化性能について,大規模フレームワーク内の3つの分野を関連づけるものである。
論文 参考訳(メタデータ) (2020-08-21T09:12:52Z) - Global Robustness Verification Networks [33.52550848953545]
3つのコンポーネントからなるグローバルロバストネス検証フレームワークを開発した。
実現可能なルールベースのバックプロパゲーションを可能にする新しいネットワークアーキテクチャ Sliding Door Network (SDN)
合成データと実データの両方にアプローチの有効性を示す。
論文 参考訳(メタデータ) (2020-06-08T08:09:20Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。