論文の概要: A Closer Look at Robustness to L-infinity and Spatial Perturbations and
their Composition
- arxiv url: http://arxiv.org/abs/2210.02577v1
- Date: Wed, 5 Oct 2022 21:57:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 17:49:45.071761
- Title: A Closer Look at Robustness to L-infinity and Spatial Perturbations and
their Composition
- Title(参考訳): L-無限性と空間摂動に対するロバスト性とその構成について
- Authors: Luke Rowe, Benjamin Th\'erien, Krzysztof Czarnecki, Hongyang Zhang
- Abstract要約: 逆機械学習では、人気のある$ell_infty$の脅威モデルが、ずっと以前からの作業の焦点となっている。
我々は,この新たな脅威モデルに対して,現状の $ell_infty$ ディフェンスをどのように適用できるかを検討する。
新たに提案したTRADES$_textAll$戦略が,すべての中で最強であることがわかった。
- 参考スコア(独自算出の注目度): 14.508683884152347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In adversarial machine learning, the popular $\ell_\infty$ threat model has
been the focus of much previous work. While this mathematical definition of
imperceptibility successfully captures an infinite set of additive image
transformations that a model should be robust to, this is only a subset of all
transformations which leave the semantic label of an image unchanged. Indeed,
previous work also considered robustness to spatial attacks as well as other
semantic transformations; however, designing defense methods against the
composition of spatial and $\ell_{\infty}$ perturbations remains relatively
underexplored. In the following, we improve the understanding of this seldom
investigated compositional setting. We prove theoretically that no linear
classifier can achieve more than trivial accuracy against a composite adversary
in a simple statistical setting, illustrating its difficulty. We then
investigate how state-of-the-art $\ell_{\infty}$ defenses can be adapted to
this novel threat model and study their performance against compositional
attacks. We find that our newly proposed TRADES$_{\text{All}}$ strategy
performs the strongest of all. Analyzing its logit's Lipschitz constant for RT
transformations of different sizes, we find that TRADES$_{\text{All}}$ remains
stable over a wide range of RT transformations with and without $\ell_\infty$
perturbations.
- Abstract(参考訳): 敵対的機械学習では、人気の高い$\ell_\infty$ threatモデルが、これまで多くの仕事の焦点だった。
この非受容性の数学的定義は、モデルが堅牢であるべき無限の加法的画像変換の集合をうまくキャプチャするが、これは画像の意味ラベルが変化しないすべての変換のサブセットにすぎない。
実際、以前の研究は空間攻撃や他の意味変換に対しても堅牢性を検討したが、空間と$\ell_{\infty}$摂動の合成に対する防御方法の設計はいまだに未熟である。
以下では,この構成構成の理解を深める。
単純な統計的条件下では,線形分類器が合成逆数に対して自明な精度を達成できないことが理論的に証明されている。
次に,この新たな脅威モデルに最先端の$\ell_{\infty}$防御がどのように適応できるかを調査し,構成的攻撃に対するそれらの性能について検討する。
新たに提案した TRADES$_{\text{All}}$ ストラテジーがすべての中で最強であることがわかった。
異なる大きさの RT 変換に対するロジットのリプシッツ定数を分析すると、TRADES$_{\text{All}}$ は $\ell_\infty$ 摂動をもたない幅広い RT 変換に対して安定である。
関連論文リスト
- LOTOS: Layer-wise Orthogonalization for Training Robust Ensembles [13.776549741449557]
リプシッツ連続性が伝達率に及ぼす影響について検討する。
アンサンブルのための新しい訓練パラダイムであるLOTOSを導入し、この悪影響に対処する。
論文 参考訳(メタデータ) (2024-10-07T15:43:28Z) - Crooked indifferentiability of the Feistel Construction [53.572703605492904]
Feistelの構築は擬似乱数置換とブロック暗号を構築するための基本的な技術である。
本稿では, アルゴリズム置換攻撃に対しても, 簡単な構成法が適用可能であることを示す。
論文 参考訳(メタデータ) (2024-04-15T04:29:24Z) - $σ$-zero: Gradient-based Optimization of $\ell_0$-norm Adversarial Examples [14.17412770504598]
入力摂動の作成には$ell_infty$-normの制約が使用できることを示す。
我々は $sigma$-norm と呼ばれる新しい $ell_infty$-norm 攻撃を提案する。
これは、成功、サイズ、効率の点で競合するすべての敵攻撃を上回っます。
論文 参考訳(メタデータ) (2024-02-02T20:08:11Z) - Revisiting Weighted Strategy for Non-stationary Parametric Bandits [82.1942459195896]
本稿では,非定常パラメトリックバンディットの重み付け戦略を再考する。
より単純な重みに基づくアルゴリズムを生成する改良された分析フレームワークを提案する。
我々の新しいフレームワークは、他のパラメトリックバンディットの後悔の限界を改善するのに使える。
論文 参考訳(メタデータ) (2023-03-05T15:11:14Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - Adversarial robustness against multiple $l_p$-threat models at the price
of one and how to quickly fine-tune robust models to another threat model [79.05253587566197]
対向的堅牢性を実現するために, 対向的トレーニング (AT) を単一$l_p$-threatモデルで行うことが広く議論されている。
本稿では,$l_p$-threatモデルの結合に対する対角的ロバスト性を実現するための,シンプルで効率的なトレーニング手法を開発する。
論文 参考訳(メタデータ) (2021-05-26T12:20:47Z) - Generating Structured Adversarial Attacks Using Frank-Wolfe Method [7.84752424025677]
異なるノルムによる逆探索の制約は、異なる構成の逆の例をもたらす。
構造化逆数例は、モデルをより堅牢にしたり、構造的に異なるデータセット上での性能を向上させるために、モデルの逆正則化に使用することができる。
論文 参考訳(メタデータ) (2021-02-15T06:36:50Z) - Towards Defending Multiple $\ell_p$-norm Bounded Adversarial
Perturbations via Gated Batch Normalization [120.99395850108422]
既存の敵防衛は、個々の摂動に対するモデル堅牢性を改善するのが一般的である。
最近の手法では、複数の$ell_p$球における敵攻撃に対するモデルロバスト性を改善するが、各摂動型に対するそれらの性能は、まだ十分ではない。
我々は,複数の$ell_pの有界摂動を守るために,摂動不変予測器を逆向きに訓練するGated Batch Normalization (GBN)を提案する。
論文 参考訳(メタデータ) (2020-12-03T02:26:01Z) - Toward Adversarial Robustness via Semi-supervised Robust Training [93.36310070269643]
アドリラルな例は、ディープニューラルネットワーク(DNN)に対する深刻な脅威であることが示されている。
R_stand$ と $R_rob$ の2つの異なるリスクを共同で最小化することで、新しい防御手法であるロバストトレーニング(RT)を提案する。
論文 参考訳(メタデータ) (2020-03-16T02:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。