論文の概要: Optimized Symbolic Interval Propagation for Neural Network Verification
- arxiv url: http://arxiv.org/abs/2212.08567v1
- Date: Thu, 15 Dec 2022 14:15:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 15:05:40.747484
- Title: Optimized Symbolic Interval Propagation for Neural Network Verification
- Title(参考訳): ニューラルネットワーク検証のための記号間隔の最適化
- Authors: Philipp Kern, Marko Kleine B\"uning and Carsten Sinz
- Abstract要約: DPNeurifyFVは低次元入力空間を持つReLUネットワークの分岐結合解法である。
本稿では,空中衝突回避ネットワークACAS Xuに対するアプローチを評価し,現状のツールと比較して実行時の改善を実証する。
- 参考スコア(独自算出の注目度): 1.8047694351309207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks are increasingly applied in safety critical domains, their
verification thus is gaining importance. A large class of recent algorithms for
proving input-output relations of feed-forward neural networks are based on
linear relaxations and symbolic interval propagation. However, due to variable
dependencies, the approximations deteriorate with increasing depth of the
network. In this paper we present DPNeurifyFV, a novel branch-and-bound solver
for ReLU networks with low dimensional input-space that is based on symbolic
interval propagation with fresh variables and input-splitting. A new heuristic
for choosing the fresh variables allows to ameliorate the dependency problem,
while our novel splitting heuristic, in combination with several other
improvements, speeds up the branch-and-bound procedure. We evaluate our
approach on the airborne collision avoidance networks ACAS Xu and demonstrate
runtime improvements compared to state-of-the-art tools.
- Abstract(参考訳): ニューラルネットワークは安全クリティカルドメインにますます適用され、検証の重要性が高まっている。
フィードフォワードニューラルネットワークの入出力関係を証明するための最近のアルゴリズムの大規模クラスは、線形緩和とシンボリック区間伝播に基づいている。
しかし、変数依存のため、ネットワークの深さが増加するにつれて近似は悪化する。
本稿では,低次元入力空間を持つReLUネットワークのための新しい分岐結合解法DPNeurifyFVについて述べる。
新変数を選択するための新しいヒューリスティックは依存性問題を緩和し、新しい分割ヒューリスティックは、他のいくつかの改善と組み合わせることで、ブランチとバウンドの手順を高速化する。
本稿では,空中衝突回避ネットワークACAS Xuに対するアプローチを評価し,現状のツールと比較して実行時の改善を実証する。
関連論文リスト
- Improving Generalization of Deep Neural Networks by Optimum Shifting [33.092571599896814]
本稿では,ニューラルネットワークのパラメータを最小値からフラット値に変化させる,近位シフトと呼ばれる新しい手法を提案する。
本手法は,ニューラルネットワークの入力と出力が固定された場合,ネットワーク内の行列乗算を,未決定線形方程式系として扱うことができることを示す。
論文 参考訳(メタデータ) (2024-05-23T02:31:55Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Efficient Estimation for Longitudinal Networks via Adaptive Merging [21.62069959992736]
本稿では, 適応型ネットワークマージ, テンソル分解, 点過程の強みを利用した長手ネットワークの効率的な推定手法を提案する。
近隣のスパースネットワークをマージし、観測されたエッジの数を拡大し、推定分散を低減する。
提案手法は,各イテレーションにおける推定誤差の上限を設定することにより,推定を容易にする。
論文 参考訳(メタデータ) (2022-11-15T03:17:11Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Visual Attention Emerges from Recurrent Sparse Reconstruction [82.78753751860603]
本稿では,人間の視覚的注意機構の2つの特徴,すなわち再発と空間性に基づく新しい注意形態について述べる。
自己注意は単一ステップの最適化と空間制約のないVARSの特殊な場合であることを示す。
VARSは、一般的な視覚変換器における自己注意の代替として容易に利用でき、様々なベンチマークでその堅牢性を一貫して改善することができる。
論文 参考訳(メタデータ) (2022-04-23T00:35:02Z) - Efficient Global Robustness Certification of Neural Networks via
Interleaving Twin-Network Encoding [8.173681464694651]
混合整数線形プログラミング(MILP)問題として、ReLUアクティベーション機能付きニューラルネットワークのグローバルロバスト性認証を定式化する。
我々のアプローチは、ニューラルネットワークの2つのコピーを並べて符号化する、新しいインターリービングツインネットワーク符号化スキームを含む。
クローズドループ制御の安全性検証のケーススタディを行い,本手法の重要性と実用性を実証した。
論文 参考訳(メタデータ) (2022-03-26T19:23:37Z) - Imbedding Deep Neural Networks [0.0]
ニューラルODEのような連続深度ニューラルネットワークは、非線形ベクトル値の最適制御問題の観点から、残留ニューラルネットワークの理解を再燃させた。
本稿では,ネットワークの深さを基本変数とする新しい手法を提案する。
論文 参考訳(メタデータ) (2022-01-31T22:00:41Z) - Implicit recurrent networks: A novel approach to stationary input
processing with recurrent neural networks in deep learning [0.0]
本研究では,ニューラルネットの新たな実装を深層学習に導入し,検証する。
繰り返しネットワークの暗黙的な実装にバックプロパゲーションアルゴリズムを実装するアルゴリズムを提案する。
シングルレイヤの暗黙的リカレントネットワークはXOR問題を解くことができ、一方、単調に活性化関数が増加するフィードフォワードネットワークは、このタスクで失敗する。
論文 参考訳(メタデータ) (2020-10-20T18:55:32Z) - On Robustness and Transferability of Convolutional Neural Networks [147.71743081671508]
現代の深層畳み込みネットワーク(CNN)は、分散シフトの下で一般化しないとしてしばしば批判される。
現代画像分類CNNにおける分布外と転送性能の相互作用を初めて検討した。
トレーニングセットとモデルサイズを増大させることで、分散シフトロバスト性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-16T18:39:04Z) - Network Diffusions via Neural Mean-Field Dynamics [52.091487866968286]
本稿では,ネットワーク上の拡散の推論と推定のための新しい学習フレームワークを提案する。
本研究の枠組みは, ノード感染確率の正確な進化を得るために, モリ・ズワンジッヒ形式から導かれる。
我々のアプローチは、基礎となる拡散ネットワークモデルのバリエーションに対して多用途で堅牢である。
論文 参考訳(メタデータ) (2020-06-16T18:45:20Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。