論文の概要: Jacobian Ensembles Improve Robustness Trade-offs to Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2204.08726v1
- Date: Tue, 19 Apr 2022 08:04:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 14:36:18.873642
- Title: Jacobian Ensembles Improve Robustness Trade-offs to Adversarial Attacks
- Title(参考訳): ヤコビアン・アンサンブル、敵の攻撃に対するロバスト性取引を改善
- Authors: Kenneth T. Co, David Martinez-Rego, Zhongyuan Hau, Emil C. Lupu
- Abstract要約: 本稿では,UAPに対するロバスト性を高めるために,新しいアプローチであるJacobian Ensemblesを提案する。
以上の結果から,ヤコビアンアン・アンサンブルは未確認の精度とロバスト性を達成できることが示唆された。
- 参考スコア(独自算出の注目度): 5.70772577110828
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep neural networks have become an integral part of our software
infrastructure and are being deployed in many widely-used and safety-critical
applications. However, their integration into many systems also brings with it
the vulnerability to test time attacks in the form of Universal Adversarial
Perturbations (UAPs). UAPs are a class of perturbations that when applied to
any input causes model misclassification. Although there is an ongoing effort
to defend models against these adversarial attacks, it is often difficult to
reconcile the trade-offs in model accuracy and robustness to adversarial
attacks. Jacobian regularization has been shown to improve the robustness of
models against UAPs, whilst model ensembles have been widely adopted to improve
both predictive performance and model robustness. In this work, we propose a
novel approach, Jacobian Ensembles-a combination of Jacobian regularization and
model ensembles to significantly increase the robustness against UAPs whilst
maintaining or improving model accuracy. Our results show that Jacobian
Ensembles achieves previously unseen levels of accuracy and robustness, greatly
improving over previous methods that tend to skew towards only either accuracy
or robustness.
- Abstract(参考訳): ディープニューラルネットワークは、ソフトウェアインフラストラクチャの不可欠な部分となり、多くの広く使用され、安全クリティカルなアプリケーションにデプロイされています。
しかし、それらの多くのシステムへの統合は、universal adversarial perturbations(uaps)という形でタイムアタックをテストする脆弱性をもたらす。
UAPは、任意の入力に適用するとモデルの誤分類を引き起こす摂動のクラスである。
これらの敵攻撃に対してモデルを守る努力が進行中であるが、モデル精度と敵攻撃に対する堅牢性においてトレードオフを和解することはしばしば困難である。
ヤコビアン正規化は UAP に対するモデルの堅牢性を改善することが示され、一方モデルアンサンブルは予測性能とモデルロバスト性の両方を改善するために広く採用されている。
本稿では,ジャコビアンアンアンサンブル(ジャコビアン正則化とモデルアンサンブルの組み合わせ)を用いて,モデル精度を維持しつつ,uapsに対するロバスト性を大幅に向上させる手法を提案する。
その結果,ヤコビアンサンブルは従来認識されていなかった精度とロバスト性を達成し,精度とロバスト性の両方に偏りやすい従来の手法を大きく改善した。
関連論文リスト
- Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Improved Robustness Against Adaptive Attacks With Ensembles and
Error-Correcting Output Codes [0.0]
本研究では, 誤り訂正出力符号(ECOC)アンサンブルの堅牢性について, アーキテクチャ改善と多様性向上を通じて検討する。
本研究では,適応攻撃に対する包括的ロバストネス評価を行い,アンサンブルの多様性とロバストネスの関係について検討する。
論文 参考訳(メタデータ) (2023-03-04T05:05:17Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z) - SafeAMC: Adversarial training for robust modulation recognition models [53.391095789289736]
通信システムには、Deep Neural Networks(DNN)モデルに依存する変調認識など、多くのタスクがある。
これらのモデルは、逆方向の摂動、すなわち、誤分類を引き起こすために作られた知覚不能な付加音に影響を受けやすいことが示されている。
本稿では,自動変調認識モデルのロバスト性を高めるために,逆方向の摂動を伴うモデルを微調整する逆方向トレーニングを提案する。
論文 参考訳(メタデータ) (2021-05-28T11:29:04Z) - Jacobian Regularization for Mitigating Universal Adversarial
Perturbations [2.9465623430708905]
UAP(Universal Adversarial Perturbations)は、大規模なデータセットでニューラルネットワークを騙すことができる入力摂動である。
データ依存ヤコビアンのノルムに基づくUPAの有効性の上限を導出する。
論文 参考訳(メタデータ) (2021-04-21T11:00:21Z) - "What's in the box?!": Deflecting Adversarial Attacks by Randomly
Deploying Adversarially-Disjoint Models [71.91835408379602]
敵の例は長い間、機械学習モデルに対する真の脅威と考えられてきた。
我々は、従来のホワイトボックスやブラックボックスの脅威モデルを超えた、配置ベースの防衛パラダイムを提案する。
論文 参考訳(メタデータ) (2021-02-09T20:07:13Z) - Voting based ensemble improves robustness of defensive models [82.70303474487105]
我々は、より堅牢性を高めるためのアンサンブルを作ることができるかどうか研究する。
最先端の先制防衛モデルを複数組み合わせることで,59.8%の堅牢な精度を達成できる。
論文 参考訳(メタデータ) (2020-11-28T00:08:45Z) - Posterior Differential Regularization with f-divergence for Improving
Model Robustness [95.05725916287376]
クリーン入力とノイズ入力のモデル後部差を規則化する手法に着目する。
後微分正則化を$f$-divergencesの族に一般化する。
実験の結果, 後方微分を$f$-divergenceで正規化することで, モデルロバスト性の向上が期待できることがわかった。
論文 参考訳(メタデータ) (2020-10-23T19:58:01Z) - Certifying Joint Adversarial Robustness for Model Ensembles [10.203602318836445]
ディープニューラルネットワーク(DNN)は、しばしば敵の例に対して脆弱である。
提案された防御は、個々のモデルが脆弱であるとしても、敵がアンサンブルに対して成功する敵の例を見つけることができないことを期待して、モデルのアンサンブルを展開させる。
モデルアンサンブルのジョイント脆弱性を考察し,アンサンブルのジョイントロバスト性を証明する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-21T19:38:31Z) - Revisiting Ensembles in an Adversarial Context: Improving Natural
Accuracy [5.482532589225552]
頑丈なモデルと非ロバストなモデルの間には、依然として自然な精度に大きなギャップがある。
この性能差を軽減するために,多数のアンサンブル法について検討する。
ランダムにロバストなモデルからの予測と、ロバストモデルと標準モデルから特徴を融合する2つのスキームを考える。
論文 参考訳(メタデータ) (2020-02-26T15:45:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。