論文の概要: Fighting Gradients with Gradients: Dynamic Defenses against Adversarial
Attacks
- arxiv url: http://arxiv.org/abs/2105.08714v1
- Date: Tue, 18 May 2021 17:55:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 14:04:39.503961
- Title: Fighting Gradients with Gradients: Dynamic Defenses against Adversarial
Attacks
- Title(参考訳): 勾配で戦うグラデーション:敵の攻撃に対する動的防御
- Authors: Dequan Wang, An Ju, Evan Shelhamer, David Wagner, Trevor Darrell
- Abstract要約: 我々は,防御エントロピー最小化(dent)により,テスト中にモデルと入力に適応する動的防御を提案する。
dentは、CIFAR-10/100およびImageNetに対する、敵に訓練された防御と名指しで訓練されたモデルの堅牢性を改善する。
- 参考スコア(独自算出の注目度): 72.59081183040682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks optimize against models to defeat defenses. Existing
defenses are static, and stay the same once trained, even while attacks change.
We argue that models should fight back, and optimize their defenses against
attacks at test time. We propose dynamic defenses, to adapt the model and input
during testing, by defensive entropy minimization (dent). Dent alters testing,
but not training, for compatibility with existing models and train-time
defenses. Dent improves the robustness of adversarially-trained defenses and
nominally-trained models against white-box, black-box, and adaptive attacks on
CIFAR-10/100 and ImageNet. In particular, dent boosts state-of-the-art defenses
by 20+ points absolute against AutoAttack on CIFAR-10 at $\epsilon_\infty$ =
8/255.
- Abstract(参考訳): 敵の攻撃は防御を破るためにモデルに最適化する。
既存の防御は静的であり、攻撃が変化しても一度トレーニングされたままである。
モデルは反撃し、テスト時に攻撃に対して防御を最適化すべきである。
防御エントロピー最小化(dent)により,テスト中にモデルと入力に適応する動的防御を提案する。
dentは既存のモデルとの互換性と列車時の防御のために、トレーニングではなくテストを変更する。
Dentは、CIFAR-10/100およびImageNetに対する、敵に訓練された防御と名指しで訓練されたモデルの堅牢性を改善する。
特にdentは、cifar-10のオートアタックに対して、$\epsilon_\infty$ = 8/255で絶対的に20ポイント以上の防御を強化している。
関連論文リスト
- Adapting to Evolving Adversaries with Regularized Continual Robust Training [47.93633573641843]
本稿では,各攻撃がモデルロジット空間のサンプルをどの程度乱すかによって,モデルが異なる攻撃に対する頑健さのギャップが限定されていることを示す理論的結果を示す。
われわれの発見とオープンソースコードは、進化する攻撃に対して堅牢なモデルの配備の基礎を築いた。
論文 参考訳(メタデータ) (2025-02-06T17:38:41Z) - Evaluating the Robustness of the "Ensemble Everything Everywhere" Defense [90.7494670101357]
あらゆるものをアンサンブルすることは、敵の例に対する防御である。
この防御は敵の攻撃に対して堅牢ではないことを示す。
次に、標準的なアダプティブアタック技術を用いて、防御の堅牢な精度を低下させる。
論文 参考訳(メタデータ) (2024-11-22T10:17:32Z) - Versatile Defense Against Adversarial Attacks on Image Recognition [2.9980620769521513]
現実の環境での敵の攻撃に対する防御は、アンチウイルスソフトの動作方法と比較することができる。
画像から画像への翻訳をベースとした防御手法が実現可能であると考えられる。
訓練されたモデルは、分類精度をほぼゼロから平均86%に改善した。
論文 参考訳(メタデータ) (2024-03-13T01:48:01Z) - PubDef: Defending Against Transfer Attacks From Public Models [6.0012551318569285]
本稿では,公用サロゲートモデルによる転送攻撃を敵が頼りにする,新たな実用的脅威モデルを提案する。
本研究では,この環境での移動攻撃を評価し,ゲーム理論の観点から専門的な防御手法を提案する。
この脅威モデルの下では、我々の防衛であるPubDefは、最先端のホワイトボックス対敵訓練を、通常の精度でほとんど損なわない大きなマージンで上回っている。
論文 参考訳(メタデータ) (2023-10-26T17:58:08Z) - The Best Defense is a Good Offense: Adversarial Augmentation against
Adversarial Attacks [91.56314751983133]
A5$は、手元の入力に対する攻撃が失敗することを保証するために防御的摂動を構築するためのフレームワークである。
我々は,地上の真理ラベルを無視するロバスト化ネットワークを用いて,実機での防御強化を効果的に示す。
また、A5$を適用して、確実に堅牢な物理オブジェクトを作成する方法も示します。
論文 参考訳(メタデータ) (2023-05-23T16:07:58Z) - Randomness in ML Defenses Helps Persistent Attackers and Hinders
Evaluators [49.52538232104449]
堅牢なMLディフェンスを設計することがますます重要になっている。
近年の研究では、当初最先端の攻撃に抵抗する多くの防衛は、適応的な敵によって破壊される可能性があることが判明している。
我々は、防御設計をシンプルにし、ホワイトボックスの防御は可能な限りランダム性を損なうべきだと論じる。
論文 参考訳(メタデータ) (2023-02-27T01:33:31Z) - Critical Checkpoints for Evaluating Defence Models Against Adversarial
Attack and Robustness [0.0]
いくつかの一般的な欠陥は、非常に短期間に壊れた過去の防衛モデルで指摘されている。
本稿では,防衛モデルの健全性を構築・評価する上で考慮すべきチェックポイントがほとんどないことを示す。
論文 参考訳(メタデータ) (2022-02-18T06:15:49Z) - What Doesn't Kill You Makes You Robust(er): Adversarial Training against
Poisons and Backdoors [57.040948169155925]
敵対的なトレーニングフレームワークを拡張し、(訓練時間)中毒やバックドア攻撃から防御します。
本手法は, トレーニング中に毒を発生させ, トレーニングバッチに注入することにより, ネットワークを中毒の影響に敏感化する。
この防御は、適応攻撃に耐え、多様な脅威モデルに一般化し、以前の防御よりも優れた性能のトレードオフをもたらすことを示す。
論文 参考訳(メタデータ) (2021-02-26T17:54:36Z) - Beware the Black-Box: on the Robustness of Recent Defenses to
Adversarial Examples [11.117775891953018]
我々はこれらの防御分析を拡張し、適応的なブラックボックス攻撃を含むようにした。
CIFAR-10とFashionNISTMデータセットに対する2つのブラックボックス対向モデルと6つの広く研究されている対向攻撃を用いて検討を行った。
防御は、安全とみなすためには、徹底的なホワイトボックス分析とブラックボックス分析の両方が必要である。
論文 参考訳(メタデータ) (2020-06-18T22:29:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。