論文の概要: Deterministic Certification to Adversarial Attacks via Bernstein
Polynomial Approximation
- arxiv url: http://arxiv.org/abs/2011.14085v1
- Date: Sat, 28 Nov 2020 08:27:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 19:57:36.870464
- Title: Deterministic Certification to Adversarial Attacks via Bernstein
Polynomial Approximation
- Title(参考訳): Bernstein Polynomial Approximation による敵攻撃に対する決定論的証明
- Authors: Ching-Chia Kao, Jhe-Bang Ko, Chun-Shien Lu
- Abstract要約: ランダム化された平滑化は、高い確率で$ell$標準敵攻撃に対する最先端の証明可能な堅牢性を確立している。
自然の精度を維持しながらランダム化せずにスムーズな分類器を構築することは可能か?
本手法は,決定境界平滑化のための決定論的アルゴリズムを提供する。
また、非線形方程式系の数値解を通したノルム非独立性証明ロバストネスの特異なアプローチも導入する。
- 参考スコア(独自算出の注目度): 5.392822954974537
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Randomized smoothing has established state-of-the-art provable robustness
against $\ell_2$ norm adversarial attacks with high probability. However, the
introduced Gaussian data augmentation causes a severe decrease in natural
accuracy. We come up with a question, "Is it possible to construct a smoothed
classifier without randomization while maintaining natural accuracy?". We find
the answer is definitely yes. We study how to transform any classifier into a
certified robust classifier based on a popular and elegant mathematical tool,
Bernstein polynomial. Our method provides a deterministic algorithm for
decision boundary smoothing. We also introduce a distinctive approach of
norm-independent certified robustness via numerical solutions of nonlinear
systems of equations. Theoretical analyses and experimental results indicate
that our method is promising for classifier smoothing and robustness
certification.
- Abstract(参考訳): ランダムな平滑化は、高い確率で$\ell_2$標準逆攻撃に対する最先端の証明可能な堅牢性を確立した。
しかし、ガウスデータの増大は自然の精度を著しく低下させる。
我々は「自然の精度を維持しながらランダム化せずにスムーズな分類器を構築することは可能か?」という疑問にたどり着いた。
答えは間違いなくイエスです。
本研究では,人気でエレガントな数学的ツールであるベルンシュタイン多項式に基づいて,任意の分類器を認定ロバスト分類器に変換する方法について検討する。
本手法は決定境界平滑化のための決定論的アルゴリズムを提供する。
また、非線形方程式系の数値解を通したノルム非独立性証明ロバストネスの特異なアプローチも導入する。
理論的解析と実験結果から,本手法は分類器のスムース化とロバストネス認証に有効であることが示唆された。
関連論文リスト
- The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Improved, Deterministic Smoothing for L1 Certified Robustness [119.86676998327864]
分割雑音を伴う非加法的決定論的平滑化法(dssn)を提案する。
一様加法平滑化とは対照的に、ssn認証は無作為なノイズコンポーネントを独立に必要としない。
これは、規範ベースの敵対的脅威モデルに対して決定論的「ランダム化平滑化」を提供する最初の仕事である。
論文 参考訳(メタデータ) (2021-03-17T21:49:53Z) - Certifying Confidence via Randomized Smoothing [151.67113334248464]
ランダムな平滑化は、高次元の分類問題に対して良好な証明されたロバスト性を保証することが示されている。
ほとんどの平滑化法は、下層の分類器が予測する信頼性に関する情報を与えてくれない。
そこで本研究では,スムーズな分類器の予測信頼度を評価するために,認証ラジイを生成する手法を提案する。
論文 参考訳(メタデータ) (2020-09-17T04:37:26Z) - Extensions and limitations of randomized smoothing for robustness
guarantees [13.37805637358556]
平滑化対策の相違が最終ロバスト性保証にどのように影響するかを検討する。
我々は,任意の$ell_p$$pinmathbbN_>0$に対するロバスト性を証明する手法を開発した。
論文 参考訳(メタデータ) (2020-06-07T17:22:32Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。