論文の概要: Overcoming the Convex Relaxation Barrier for Neural Network Verification
via Nonconvex Low-Rank Semidefinite Relaxations
- arxiv url: http://arxiv.org/abs/2211.17244v1
- Date: Wed, 30 Nov 2022 18:46:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 16:31:17.477908
- Title: Overcoming the Convex Relaxation Barrier for Neural Network Verification
via Nonconvex Low-Rank Semidefinite Relaxations
- Title(参考訳): 非凸低ランク半有限緩和によるニューラルネットワーク検証のための凸緩和障壁の克服
- Authors: Hong-Ming Chiu and Richard Y. Zhang
- Abstract要約: 非緩和はLP緩和に類似した制限を有することを示す。
また,非緩和はLP緩和障壁をほぼ完全に克服することを示した。
- 参考スコア(独自算出の注目度): 12.589519278962378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To rigorously certify the robustness of neural networks to adversarial
perturbations, most state-of-the-art techniques rely on a triangle-shaped
linear programming (LP) relaxation of the ReLU activation. While the LP
relaxation is exact for a single neuron, recent results suggest that it faces
an inherent "convex relaxation barrier" as additional activations are added,
and as the attack budget is increased. In this paper, we propose a nonconvex
relaxation for the ReLU relaxation, based on a low-rank restriction of a
semidefinite programming (SDP) relaxation. We show that the nonconvex
relaxation has a similar complexity to the LP relaxation, but enjoys improved
tightness that is comparable to the much more expensive SDP relaxation. Despite
nonconvexity, we prove that the verification problem satisfies constraint
qualification, and therefore a Riemannian staircase approach is guaranteed to
compute a near-globally optimal solution in polynomial time. Our experiments
provide evidence that our nonconvex relaxation almost completely overcome the
"convex relaxation barrier" faced by the LP relaxation.
- Abstract(参考訳): 敵の摂動に対するニューラルネットワークの堅牢性を厳格に証明するために、ほとんどの最先端技術は、ReLUアクティベーションの三角形型線形プログラミング(LP)緩和に依存している。
LP緩和は単一ニューロンに対して正確であるが、近年の結果は、追加の活性化が加えられ、攻撃予算が増加するにつれて、それが固有の「凸緩和障壁」に直面していることを示唆している。
本稿では,半定値プログラミング(SDP)緩和の低ランク制約に基づき,ReLU緩和のための非凸緩和を提案する。
非凸緩和はLP緩和と類似した複雑さを持つが,より高価なSDP緩和に匹敵する厳密性の改善が期待できる。
非凸性にもかかわらず、検証問題は制約条件を満たすことを証明し、リーマンの階段アプローチは多項式時間でほぼグローバルに最適な解を計算することが保証される。
実験により,非凸緩和がlp緩和に直面する「凸緩和障壁」をほぼ完全に克服する証拠が得られた。
関連論文リスト
- Towards Certified Unlearning for Deep Neural Networks [50.816473152067104]
認定されていない未学習は、凸機械学習モデルで広く研究されている。
認定アンラーニングとディープニューラルネットワーク(DNN)のギャップを埋める手法をいくつか提案する。
論文 参考訳(メタデータ) (2024-08-01T21:22:10Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Robust optimization for adversarial learning with finite sample complexity guarantees [1.8434042562191815]
本稿では,線形・非線形な分類問題に着目し,ロバストな分類器に対する新しい逆学習法を提案する。
データ駆動型レンズの下ではロバスト性があり、線形および非線形の分類器の2進および複数クラスシナリオにおける有限標本複雑性境界を導出する。
線形および非線形モデルに対する線形計画法 (LP) と2次コーン計画法 (SOCP) を用いて, 最悪のサロゲート損失を最小限に抑えるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-22T13:49:53Z) - Adaptive Hierarchical Certification for Segmentation using Randomized Smoothing [87.48628403354351]
機械学習の認証は、特定の条件下では、敵対的なサンプルが特定の範囲内でモデルを回避できないことを証明している。
セグメンテーションの一般的な認証方法は、平らな粒度のクラスを使い、モデルの不確実性による高い断続率をもたらす。
本稿では,複数レベルの階層内で画素を認証し,不安定なコンポーネントに対して粗いレベルに適応的に認証を緩和する,新しい,より実用的な設定を提案する。
論文 参考訳(メタデータ) (2024-02-13T11:59:43Z) - GloptiNets: Scalable Non-Convex Optimization with Certificates [61.50835040805378]
本稿では,ハイパーキューブやトーラス上のスムーズな関数を扱う証明書を用いた非キューブ最適化手法を提案する。
スペクトルの減衰に固有の対象関数の正則性を活用することにより、正確な証明を取得し、高度で強力なニューラルネットワークを活用することができる。
論文 参考訳(メタデータ) (2023-06-26T09:42:59Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z) - Certified Distributional Robustness on Smoothed Classifiers [27.006844966157317]
本稿では,ロバスト性証明として,入力分布に対する最悪の逆損失を提案する。
双対性と滑らか性を利用して、証明書のサロゲートとして容易に計算できる上限を与える。
論文 参考訳(メタデータ) (2020-10-21T13:22:25Z) - Tightened Convex Relaxations for Neural Network Robustness Certification [10.68833097448566]
我々は、ReLUネットワークの構造を利用して、新しいパーティションベースの認証手順により緩和誤差を改善する。
提案手法は, 既存の線形プログラミング緩和を厳格化することが証明され, 結果がより微細になるにつれて, 緩和誤差がゼロとなる。
論文 参考訳(メタデータ) (2020-04-01T16:59:21Z) - Regularized Training and Tight Certification for Randomized Smoothed
Classifier with Provable Robustness [15.38718018477333]
我々は新たな正規化リスクを導出し、正規化器はスムーズな手法の精度と堅牢性を適応的に促進することができる。
また、正規化効果を利用して、高い確率で保持されるより厳密なロバスト性の下限を提供する新しい認証アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-02-17T20:54:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。