論文の概要: Robust Mode Connectivity-Oriented Adversarial Defense: Enhancing Neural
Network Robustness Against Diversified $\ell_p$ Attacks
- arxiv url: http://arxiv.org/abs/2303.10225v1
- Date: Fri, 17 Mar 2023 19:49:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 20:43:56.505507
- Title: Robust Mode Connectivity-Oriented Adversarial Defense: Enhancing Neural
Network Robustness Against Diversified $\ell_p$ Attacks
- Title(参考訳): ロバストモードコネクティビティ指向の敵防衛: ニューラルネットワークロバストネスを多様化した$\ell_p$攻撃に対して強化する
- Authors: Ren Wang, Yuxuan Li, Sijia Liu
- Abstract要約: 敵のロバスト性は、ニューラルネットワークが推論フェーズ中に敵の攻撃を防御する能力を測定する上で重要な概念である。
近年の研究では、1種類の攻撃に対して敵の堅牢性を改善することに成功したにもかかわらず、モデルはまだ$ell_p$攻撃の多様化に弱いことが示されている。
本稿では,2つの集団学習フェーズを含む,RMC指向の新たな対角防御手法を提案する。
- 参考スコア(独自算出の注目度): 14.895924092336141
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial robustness is a key concept in measuring the ability of neural
networks to defend against adversarial attacks during the inference phase.
Recent studies have shown that despite the success of improving adversarial
robustness against a single type of attack using robust training techniques,
models are still vulnerable to diversified $\ell_p$ attacks. To achieve
diversified $\ell_p$ robustness, we propose a novel robust mode connectivity
(RMC)-oriented adversarial defense that contains two population-based learning
phases. The first phase, RMC, is able to search the model parameter space
between two pre-trained models and find a path containing points with high
robustness against diversified $\ell_p$ attacks. In light of the effectiveness
of RMC, we develop a second phase, RMC-based optimization, with RMC serving as
the basic unit for further enhancement of neural network diversified $\ell_p$
robustness. To increase computational efficiency, we incorporate learning with
a self-robust mode connectivity (SRMC) module that enables the fast
proliferation of the population used for endpoints of RMC. Furthermore, we draw
parallels between SRMC and the human immune system. Experimental results on
various datasets and model architectures demonstrate that the proposed defense
methods can achieve high diversified $\ell_p$ robustness against $\ell_\infty$,
$\ell_2$, $\ell_1$, and hybrid attacks. Codes are available at
\url{https://github.com/wangren09/MCGR}.
- Abstract(参考訳): 敵の堅牢性は、ニューラルネットワークが推論フェーズ中に敵の攻撃から守る能力を測定する上で重要な概念である。
近年の研究では、ロバストトレーニング技術を用いて1種類の攻撃に対する敵の堅牢性を改善することに成功したが、モデルはまだ$\ell_p$攻撃の多様化に弱いことが示されている。
多様化した$\ell_p$ロバスト性を実現するために,2つの集団ベースの学習フェーズを含む,新しいロバストモード接続(rmc)指向の敵対的防御を提案する。
第1フェーズであるrmcは、2つの事前訓練されたモデル間のモデルパラメータ空間を探索し、多様化した$\ell_p$攻撃に対して高い堅牢性を持つ点を含むパスを見つけることができる。
RMCの有効性を考慮して,RTCをベースとした2次最適化が,ニューラルネットワークのさらなる拡張のための基本単位として機能する。
計算効率を向上させるために, RMCの終端に使用する個体群の急速な増殖を可能にする自己損モード接続モジュール(SRMC)を用いて学習を行う。
また,SRMCとヒト免疫系との類似性も示した。
各種データセットおよびモデルアーキテクチャにおける実験結果から,提案手法は,$\ell_\infty$,$\ell_2$,$\ell_1$,およびハイブリッド攻撃に対して,高多様化した$\ell_p$ロバスト性を実現することが示されている。
コードは \url{https://github.com/wangren09/mcgr} で入手できる。
関連論文リスト
- Deep Adversarial Defense Against Multilevel-Lp Attacks [5.604868766260297]
本稿では,EMRC法 (Efficient Robust Mode Connectivity) と呼ばれる,計算効率の良いマルチレベル$ell_p$ディフェンスを提案する。
連続最適化で用いられる解析的継続アプローチと同様に、この手法は2つの$p$特化逆最適化モデルをブレンドする。
我々は,AT-$ell_infty$,E-AT,MSDと比較して,本手法が様々な攻撃に対して優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2024-07-12T13:30:00Z) - Parameter-Saving Adversarial Training: Reinforcing Multi-Perturbation
Robustness via Hypernetworks [47.21491911505409]
敵の訓練は、敵の摂動から守る最もポピュラーで効果的な方法の1つである。
本稿では,多摂動頑健性を高めるために,新しい多摂動対向トレーニングフレームワークであるパラメータセービング対向トレーニング(PSAT)を提案する。
論文 参考訳(メタデータ) (2023-09-28T07:16:02Z) - Defending Variational Autoencoders from Adversarial Attacks with MCMC [74.36233246536459]
変分オートエンコーダ(VAE)は、様々な領域で使用される深部生成モデルである。
以前の研究が示すように、視覚的にわずかに修正された入力に対する予期せぬ潜在表現と再構成を生成するために、VAEを簡単に騙すことができる。
本稿では, 敵攻撃構築のための目的関数について検討し, モデルのロバスト性を評価する指標を提案し, 解決策を提案する。
論文 参考訳(メタデータ) (2022-03-18T13:25:18Z) - Transferring Adversarial Robustness Through Robust Representation
Matching [3.5934248574481717]
アドリアリトレーニングは、ニューラルネットワークに対するこのような攻撃に確実に耐えられる数少ない既知の防御の1つである。
本稿では,ロバスト表現マッチング(RRM, Robust Representation Matching)を提案する。
RRMは、モデル性能と対向訓練時間の両方において優れている。
論文 参考訳(メタデータ) (2022-02-21T05:15:40Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z) - Mutual Adversarial Training: Learning together is better than going
alone [82.78852509965547]
モデル間の相互作用が知識蒸留による堅牢性に与える影響について検討する。
本稿では,複数のモデルを同時に訓練する相互対人訓練(MAT)を提案する。
MATは、ホワイトボックス攻撃下で、モデル堅牢性と最先端メソッドを効果的に改善することができる。
論文 参考訳(メタデータ) (2021-12-09T15:59:42Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Adversarial robustness against multiple $l_p$-threat models at the price
of one and how to quickly fine-tune robust models to another threat model [79.05253587566197]
対向的堅牢性を実現するために, 対向的トレーニング (AT) を単一$l_p$-threatモデルで行うことが広く議論されている。
本稿では,$l_p$-threatモデルの結合に対する対角的ロバスト性を実現するための,シンプルで効率的なトレーニング手法を開発する。
論文 参考訳(メタデータ) (2021-05-26T12:20:47Z) - Stochastic Security: Adversarial Defense Using Long-Run Dynamics of
Energy-Based Models [82.03536496686763]
敵対的攻撃に対するディープ・ネットワークの脆弱性は、認識とセキュリティの両方の観点から、ディープ・ラーニングの中心的な問題である。
我々は,自然学習型分類器の保護に重点を置き,マルコフ・チェイン・モンテカルロ (MCMC) とエネルギーベースモデル (EBM) を併用して敵の浄化を行った。
本研究は,1)現実的な長期MCMCサンプルを用いたEMMの訓練方法の改善,2)防衛の理論的曖昧さを解消する期待・オフバー・トランスフォーメーション(EOT)ディフェンス,3)自然に訓練された分類器と競争的ディフェンスのための最先端の対人ディフェンス,である。
論文 参考訳(メタデータ) (2020-05-27T17:53:36Z) - RAB: Provable Robustness Against Backdoor Attacks [20.702977915926787]
我々は、一般的な脅威モデル、特にバックドアアタックに対して、機械学習モデルの堅牢性を証明することに重点を置いている。
トレーニングモデルをスムースにし,バックドア攻撃に対する堅牢性を証明するための,最初の堅牢なトレーニングプロセスであるRABを提案する。
我々は、さまざまな機械学習(ML)モデルに対する包括的な実験を行い、バックドア攻撃に対する信頼性の高い堅牢性を示す最初のベンチマークを提供する。
論文 参考訳(メタデータ) (2020-03-19T17:05:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。