論文の概要: Position: Towards Resilience Against Adversarial Examples
- arxiv url: http://arxiv.org/abs/2405.01349v2
- Date: Tue, 08 Oct 2024 15:56:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-10 14:28:08.849105
- Title: Position: Towards Resilience Against Adversarial Examples
- Title(参考訳): 立場:敵の事例に対する抵抗性に向けて
- Authors: Sihui Dai, Chong Xiang, Tong Wu, Prateek Mittal,
- Abstract要約: 我々は、敵の弾力性の定義と、敵の弾力性のある防御を設計する方法について概観する。
次に, 対向弾性のサブプロブレムを導入し, 連続適応ロバストネス(continuousal adapt robustness)と呼ぶ。
本研究では, 連続適応ロバストネスと, マルチアタックロバストネスと予期せぬアタックロバストネスの関連性を実証する。
- 参考スコア(独自算出の注目度): 42.09231029292568
- License:
- Abstract: Current research on defending against adversarial examples focuses primarily on achieving robustness against a single attack type such as $\ell_2$ or $\ell_{\infty}$-bounded attacks. However, the space of possible perturbations is much larger than considered by many existing defenses and is difficult to mathematically model, so the attacker can easily bypass the defense by using a type of attack that is not covered by the defense. In this position paper, we argue that in addition to robustness, we should also aim to develop defense algorithms that are adversarially resilient -- defense algorithms should specify a means to quickly adapt the defended model to be robust against new attacks. We provide a definition of adversarial resilience and outline considerations of designing an adversarially resilient defense. We then introduce a subproblem of adversarial resilience which we call continual adaptive robustness, in which the defender gains knowledge of the formulation of possible perturbation spaces over time and can then update their model based on this information. Additionally, we demonstrate the connection between continual adaptive robustness and previously studied problems of multiattack robustness and unforeseen attack robustness and outline open directions within these fields which can contribute to improving continual adaptive robustness and adversarial resilience.
- Abstract(参考訳): 敵の例に対する防御に関する現在の研究は、主に$\ell_2$や$\ell_{\infty}$-bounded攻撃のような単一の攻撃タイプに対して堅牢性を達成することに焦点を当てている。
しかし、既存の多くの守備隊が考慮している範囲よりも遥かに広いため、数学的にモデル化が難しいため、攻撃者は守備隊がカバーしていない攻撃型を用いて容易に防御を回避できる。
本論文では,ロバスト性に加えて,防御性に逆らう防衛アルゴリズムの開発も目指すべきである。防衛アルゴリズムは,防衛モデルが新たな攻撃に対して堅牢であるように迅速に適応する手段を指定すべきである。
我々は、敵の弾力性の定義と、敵の弾力性のある防御を設計する方法について概観する。
次に, 連続適応ロバスト性 (continuousal adapt robustness) と呼ばれる対向レジリエンスのサブプロブレムを導入し, ディフェンダーは時間とともに可能な摂動空間の定式化の知識を得て, その情報に基づいてそれらのモデルを更新することができる。
さらに, 連続適応ロバスト性と, 従来研究されてきたマルチアタックロバスト性と予期せぬアタックロバスト性との関連性を実証し, 連続適応ロバスト性および対向レジリエンスの向上に寄与する, これらの分野におけるオープンな方向を概説する。
関連論文リスト
- Adversarial Markov Games: On Adaptive Decision-Based Attacks and Defenses [21.759075171536388]
攻撃だけでなく、防御も、相互作用を通じてお互いから学び合うことによって、どのような恩恵を受けるかを示します。
我々は、システムがどのように反応するかを制御するアクティブディフェンスが、意思決定ベースの攻撃に直面した際のモデルの強化に必須の補完であることを示した。
実世界で展開されるMLベースのシステムの堅牢性を確保するための効果的な戦略を策定する。
論文 参考訳(メタデータ) (2023-12-20T21:24:52Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Continual Adversarial Defense [37.37029638528458]
防衛システムは、敵データをオンラインで継続的に収集し、迅速に自己改善する。
新たな攻撃への継続的な適応は、壊滅的な忘れ、少数ショット適応、メモリ効率適応、クリーンデータと逆データの両方において高い精度である。
特にCADは、前回の攻撃に対して優れた性能を維持しつつ、最小限の予算と低コストの防衛失敗に迅速に適応することができる。
論文 参考訳(メタデータ) (2023-12-15T01:38:26Z) - Randomness in ML Defenses Helps Persistent Attackers and Hinders
Evaluators [49.52538232104449]
堅牢なMLディフェンスを設計することがますます重要になっている。
近年の研究では、当初最先端の攻撃に抵抗する多くの防衛は、適応的な敵によって破壊される可能性があることが判明している。
我々は、防御設計をシンプルにし、ホワイトボックスの防御は可能な限りランダム性を損なうべきだと論じる。
論文 参考訳(メタデータ) (2023-02-27T01:33:31Z) - Can Adversarial Training Be Manipulated By Non-Robust Features? [64.73107315313251]
もともとテストタイムの敵の例に抵抗するために設計された対人訓練は、トレーニング時間アベイラビリティーアタックの緩和に有望であることが示されている。
我々は、トレーニングデータをわずかに摂動させることで、堅牢な可用性を阻害することを目的とした、安定性攻撃と呼ばれる新しい脅威モデルを特定する。
この脅威の下では、従来の防衛予算$epsilon$による敵の訓練が、単純な統計的条件下でテストロバスト性を提供するのに確実に失敗することを発見した。
論文 参考訳(メタデータ) (2022-01-31T16:25:25Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Automated Discovery of Adaptive Attacks on Adversarial Defenses [14.633898825111826]
未知の防御で特定のモデルに対する効果的な攻撃を自動的に発見するフレームワークを提案する。
敵防衛の信頼性評価のための最先端ツールであるAutoAttackよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-23T18:43:24Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。