論文の概要: Seasoning Model Soups for Robustness to Adversarial and Natural
Distribution Shifts
- arxiv url: http://arxiv.org/abs/2302.10164v1
- Date: Mon, 20 Feb 2023 18:50:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 14:30:03.060145
- Title: Seasoning Model Soups for Robustness to Adversarial and Natural
Distribution Shifts
- Title(参考訳): 逆流・自然分布シフトに対するロバスト性を考慮した調味料モデルスープ
- Authors: Francesco Croce, Sylvestre-Alvise Rebuffi, Evan Shelhamer, Sven Gowal
- Abstract要約: 本稿では,異なる$ell_p$-normの有界な逆数に対してスムーズにトレードオフする逆回転型モデルスープの入手方法について述べる。
結果のモデルスープは、同じ相手に特化している構成モデルよりも、与えられた$ell_p$-normに対してより堅牢である場合もあります。
- 参考スコア(独自算出の注目度): 41.27373026443852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial training is widely used to make classifiers robust to a specific
threat or adversary, such as $\ell_p$-norm bounded perturbations of a given
$p$-norm. However, existing methods for training classifiers robust to multiple
threats require knowledge of all attacks during training and remain vulnerable
to unseen distribution shifts. In this work, we describe how to obtain
adversarially-robust model soups (i.e., linear combinations of parameters) that
smoothly trade-off robustness to different $\ell_p$-norm bounded adversaries.
We demonstrate that such soups allow us to control the type and level of
robustness, and can achieve robustness to all threats without jointly training
on all of them. In some cases, the resulting model soups are more robust to a
given $\ell_p$-norm adversary than the constituent model specialized against
that same adversary. Finally, we show that adversarially-robust model soups can
be a viable tool to adapt to distribution shifts from a few examples.
- Abstract(参考訳): 敵対的訓練は、与えられた$p$-normの$\ell_p$-norm有界摂動のような特定の脅威や敵に対して堅牢な分類子を作るために広く用いられている。
しかし、複数の脅威に対して堅牢な既存の分類器の訓練方法は、訓練中にすべての攻撃の知識を必要とし、見つからない分布シフトに弱いままである。
本稿では,異なる$\ell_p$-norm有界敵に対する円滑なトレードオフ頑健性を実現する,逆ロバストモデルスープ(すなわちパラメータの線形結合)の入手方法について述べる。
このようなスープはロバスト性の種類やレベルを制御でき、すべての脅威に対して、共同でトレーニングすることなく堅牢性を実現できることを実証する。
結果のモデルスープは、与えられた$\ell_p$-norm敵に対して、同じ敵に対して特殊化された構成モデルよりも堅牢である場合もあります。
最後に, 逆回転モデルスープは, いくつかの例から, 分布シフトに適応するための有効なツールであることを示す。
関連論文リスト
- Robust Classification via a Single Diffusion Model [37.46217654590878]
ロバスト拡散(英: Robust Diffusion、RDC)は、事前学習された拡散モデルから構築され、逆向きに堅牢な生成型分類器である。
RDCは75.67%で様々な$ell_infty$標準有界適応攻撃に対して、CIFAR-10で$epsilon_infty/255$で堅牢な精度を達成した。
論文 参考訳(メタデータ) (2023-05-24T15:25:19Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - Adversarial robustness against multiple $l_p$-threat models at the price
of one and how to quickly fine-tune robust models to another threat model [79.05253587566197]
対向的堅牢性を実現するために, 対向的トレーニング (AT) を単一$l_p$-threatモデルで行うことが広く議論されている。
本稿では,$l_p$-threatモデルの結合に対する対角的ロバスト性を実現するための,シンプルで効率的なトレーニング手法を開発する。
論文 参考訳(メタデータ) (2021-05-26T12:20:47Z) - Adversarial Robustness: What fools you makes you stronger [1.14219428942199]
本研究では,PAC-ラーニングモデルと等価クエリ-ラーニングモデルのバージョンとの間で,サンプルの複雑さを指数関数的に分離することを証明する。
この分離は、敵対的堅牢性に興味深い意味を持つことを示す。
攻撃者の存在下では、確実に堅牢なモデルを計算する適応防御を設計するビジョンを探求する。
論文 参考訳(メタデータ) (2021-02-10T15:00:24Z) - "What's in the box?!": Deflecting Adversarial Attacks by Randomly
Deploying Adversarially-Disjoint Models [71.91835408379602]
敵の例は長い間、機械学習モデルに対する真の脅威と考えられてきた。
我々は、従来のホワイトボックスやブラックボックスの脅威モデルを超えた、配置ベースの防衛パラダイムを提案する。
論文 参考訳(メタデータ) (2021-02-09T20:07:13Z) - Adversarially Robust Classifier with Covariate Shift Adaptation [25.39995678746662]
既存の敵の訓練されたモデルは通常、テスト例に対して互いに独立して推論を行う。
単純な適応バッチ正規化(BN)技術は、ランダムな摂動に対してこれらのモデルのロバスト性を大幅に向上させることができることを示す。
さらに,適応BN手法は,敵攻撃に対する性能を高めつつも,一般的な汚職に対する堅牢性を著しく向上させることを示した。
論文 参考訳(メタデータ) (2021-02-09T19:51:56Z) - Towards Defending Multiple $\ell_p$-norm Bounded Adversarial
Perturbations via Gated Batch Normalization [120.99395850108422]
既存の敵防衛は、個々の摂動に対するモデル堅牢性を改善するのが一般的である。
最近の手法では、複数の$ell_p$球における敵攻撃に対するモデルロバスト性を改善するが、各摂動型に対するそれらの性能は、まだ十分ではない。
我々は,複数の$ell_pの有界摂動を守るために,摂動不変予測器を逆向きに訓練するGated Batch Normalization (GBN)を提案する。
論文 参考訳(メタデータ) (2020-12-03T02:26:01Z) - DVERGE: Diversifying Vulnerabilities for Enhanced Robust Generation of
Ensembles [20.46399318111058]
敵攻撃は、小さな摂動でCNNモデルを誤解させる可能性があるため、同じデータセットでトレーニングされた異なるモデル間で効果的に転送することができる。
非破壊的特徴を蒸留することにより,各サブモデルの逆脆弱性を分離するDVERGEを提案する。
新たな多様性基準とトレーニング手順により、DVERGEは転送攻撃に対して高い堅牢性を達成することができる。
論文 参考訳(メタデータ) (2020-09-30T14:57:35Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。