論文の概要: Feature Partition Aggregation: A Fast Certified Defense Against a Union
of Sparse Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2302.11628v1
- Date: Wed, 22 Feb 2023 20:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 17:07:30.596279
- Title: Feature Partition Aggregation: A Fast Certified Defense Against a Union
of Sparse Adversarial Attacks
- Title(参考訳): 特徴分断集約: スパース対人攻撃に対する高速な認証された防御
- Authors: Zayd Hammoudeh and Daniel Lowd
- Abstract要約: フィーチャーパーティションアグリゲーション(FPA)は、攻撃型の連合に対する認証された防御である。
FPAはアンサンブルを通じて堅牢性を保証する。
FPAは、より大きく強力な堅牢性を保証する、最先端のスパース防御を著しく上回る。
- 参考スコア(独自算出の注目度): 11.663072799764542
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep networks are susceptible to numerous types of adversarial attacks.
Certified defenses provide guarantees on a model's robustness, but most of
these defenses are restricted to a single attack type. In contrast, this paper
proposes feature partition aggregation (FPA) - a certified defense against a
union of attack types, namely evasion, backdoor, and poisoning attacks. We
specifically consider an $\ell_0$ or sparse attacker that arbitrarily controls
an unknown subset of the training and test features - even across all
instances. FPA generates robustness guarantees via an ensemble whose submodels
are trained on disjoint feature sets. Following existing certified sparse
defenses, we generalize FPA's guarantees to top-$k$ predictions. FPA
significantly outperforms state-of-the-art sparse defenses providing larger and
stronger robustness guarantees, while simultaneously being up to
5,000${\times}$ faster.
- Abstract(参考訳): ディープ・ネットワークは多くの種類の敵対的攻撃を受けやすい。
認証された防御はモデルの堅牢性を保証するが、これらの防御のほとんどは単一の攻撃タイプに制限される。
これとは対照的に,本稿では,回避,バックドア,毒殺攻撃といった攻撃型連合に対する認証された防御策として,機能分割アグリゲーション(FPA)を提案する。
具体的には、トレーニングとテスト機能の未知のサブセットを任意に制御する$\ell_0$あるいはスパースアタッカーを検討します。
fpaは、サブモデルが互いに分離した特徴集合で訓練されるアンサンブルを介してロバスト性保証を生成する。
既存の保証されたスパースディフェンスに続いて、FPAの保証をk$の予測に一般化する。
FPAは、より大きく強力な堅牢性を保証するとともに、5,000${\times}$より高速な技術である。
関連論文リスト
- Deep Adversarial Defense Against Multilevel-Lp Attacks [5.604868766260297]
本稿では,EMRC法 (Efficient Robust Mode Connectivity) と呼ばれる,計算効率の良いマルチレベル$ell_p$ディフェンスを提案する。
連続最適化で用いられる解析的継続アプローチと同様に、この手法は2つの$p$特化逆最適化モデルをブレンドする。
我々は,AT-$ell_infty$,E-AT,MSDと比較して,本手法が様々な攻撃に対して優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2024-07-12T13:30:00Z) - Computational Asymmetries in Robust Classification [9.933826905715822]
ReLUの攻撃は$mathitNP$-hardであり、トレーニング時の堅牢性は$Sigma2_P$-hardである(単一の例であっても)。
第二に、推論時ロバスト性証明はこの非対称性の影響を受けないことを示し、Counter-Attack (CA) という概念実証手法を導入する。
論文 参考訳(メタデータ) (2023-06-25T19:41:14Z) - The Best Defense is a Good Offense: Adversarial Augmentation against
Adversarial Attacks [91.56314751983133]
A5$は、手元の入力に対する攻撃が失敗することを保証するために防御的摂動を構築するためのフレームワークである。
我々は,地上の真理ラベルを無視するロバスト化ネットワークを用いて,実機での防御強化を効果的に示す。
また、A5$を適用して、確実に堅牢な物理オブジェクトを作成する方法も示します。
論文 参考訳(メタデータ) (2023-05-23T16:07:58Z) - Hindering Adversarial Attacks with Implicit Neural Representations [25.422201099331637]
Lossy Implicit Network Activation Coding (LINAC) の防衛は、いくつかの共通の敵攻撃を妨害する。
鍵ベース防衛のためのパラメトリックバイパス近似(PBA)攻撃戦略を考案し,このカテゴリにおける既存手法の無効化に成功した。
論文 参考訳(メタデータ) (2022-10-22T13:10:24Z) - Robustifying $\ell_\infty$ Adversarial Training to the Union of
Perturbation Models [120.71277007016708]
我々は、広く普及しているシングルアタック$ell_infty$ ATフレームワークの機能を拡張する。
我々の手法はSNAP(Noss Augmented Processing)と呼ばれ、単一攻撃ATフレームワークの優れた副産物を利用する。
SNAPは、標準的なシングルアタックATを用いて、ネットワークパラメータとともに分布を学習する形状のノイズ増強層を持つ、与えられたディープネットをプリペイドする。
論文 参考訳(メタデータ) (2021-05-31T05:18:42Z) - Adversarial robustness against multiple $l_p$-threat models at the price
of one and how to quickly fine-tune robust models to another threat model [79.05253587566197]
対向的堅牢性を実現するために, 対向的トレーニング (AT) を単一$l_p$-threatモデルで行うことが広く議論されている。
本稿では,$l_p$-threatモデルの結合に対する対角的ロバスト性を実現するための,シンプルで効率的なトレーニング手法を開発する。
論文 参考訳(メタデータ) (2021-05-26T12:20:47Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - Towards Defending Multiple $\ell_p$-norm Bounded Adversarial
Perturbations via Gated Batch Normalization [120.99395850108422]
既存の敵防衛は、個々の摂動に対するモデル堅牢性を改善するのが一般的である。
最近の手法では、複数の$ell_p$球における敵攻撃に対するモデルロバスト性を改善するが、各摂動型に対するそれらの性能は、まだ十分ではない。
我々は,複数の$ell_pの有界摂動を守るために,摂動不変予測器を逆向きに訓練するGated Batch Normalization (GBN)を提案する。
論文 参考訳(メタデータ) (2020-12-03T02:26:01Z) - Toward Adversarial Robustness via Semi-supervised Robust Training [93.36310070269643]
アドリラルな例は、ディープニューラルネットワーク(DNN)に対する深刻な脅威であることが示されている。
R_stand$ と $R_rob$ の2つの異なるリスクを共同で最小化することで、新しい防御手法であるロバストトレーニング(RT)を提案する。
論文 参考訳(メタデータ) (2020-03-16T02:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。