論文の概要: AdvMS: A Multi-source Multi-cost Defense Against Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2002.08439v1
- Date: Wed, 19 Feb 2020 20:46:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 13:54:42.232265
- Title: AdvMS: A Multi-source Multi-cost Defense Against Adversarial Attacks
- Title(参考訳): AdvMS: 敵攻撃に対するマルチソースマルチコスト防衛
- Authors: Xiao Wang, Siyue Wang, Pin-Yu Chen, Xue Lin, Peter Chin
- Abstract要約: ディープニューラルネットワークは、マルウェア検出や自動運転車など、多くのセキュリティクリティカルな領域で急速に普及している。
従来の防衛手法は有望だが、単一ソースの単一コストの性質によってほとんど制限されている。
本稿では,AdvMSのマルチソース特性が性能評価問題を緩和し,多コスト特性が柔軟性と調整可能なコストの組み合わせによるロバスト性の向上を可能にすることを示す。
- 参考スコア(独自算出の注目度): 81.45930614122925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Designing effective defense against adversarial attacks is a crucial topic as
deep neural networks have been proliferated rapidly in many security-critical
domains such as malware detection and self-driving cars. Conventional defense
methods, although shown to be promising, are largely limited by their
single-source single-cost nature: The robustness promotion tends to plateau
when the defenses are made increasingly stronger while the cost tends to
amplify. In this paper, we study principles of designing multi-source and
multi-cost schemes where defense performance is boosted from multiple defending
components. Based on this motivation, we propose a multi-source and multi-cost
defense scheme, Adversarially Trained Model Switching (AdvMS), that inherits
advantages from two leading schemes: adversarial training and random model
switching. We show that the multi-source nature of AdvMS mitigates the
performance plateauing issue and the multi-cost nature enables improving
robustness at a flexible and adjustable combination of costs over different
factors which can better suit specific restrictions and needs in practice.
- Abstract(参考訳): マルウェア検出や自動運転車など、多くのセキュリティクリティカルな領域でディープニューラルネットワークが急速に普及しているため、敵対的攻撃に対する効果的な防御設計は重要なトピックである。
従来の防衛手法は、有望であるにもかかわらず、その単一ソースの単一コストの性質によって大きく制限されている: 堅牢性促進は、防衛が強化され、コストが増幅する傾向にあるときに、より強固になる傾向にある。
本稿では,複数の防御コンポーネントから防御性能を向上させるマルチソースおよびマルチコストスキームの設計原理について検討する。
この動機を活かし,マルチソースおよびマルチコストの防御スキームであるadvm(adversarially training model switching)を提案する。
我々は,advmsのマルチソース性は性能の高原化を緩和し,マルチコスト性は,特定の制約やニーズに適合可能な,さまざまな要因に対する柔軟性と調整可能なコストの組み合わせによる堅牢性の向上を可能にすることを示した。
関連論文リスト
- MMAD-Purify: A Precision-Optimized Framework for Efficient and Scalable Multi-Modal Attacks [21.227398434694724]
我々は,攻撃フレームワークの有効性を高めるために,精度最適化ノイズ予測器を組み込んだ革新的なフレームワークを導入する。
当社のフレームワークは,マルチモーダル攻撃に対する最先端のソリューションを提供し,レイテンシの低減を実現している。
本研究の枠組みは, 浄化防御に対する優れた伝達性と堅牢性を実現することを実証する。
論文 参考訳(メタデータ) (2024-10-17T23:52:39Z) - Hyper Adversarial Tuning for Boosting Adversarial Robustness of Pretrained Large Vision Models [9.762046320216005]
大きな視覚モデルは敵の例に弱いことが分かっており、敵の強靭性を高める必要性を強調している。
近年の研究では、大規模視覚モデルにおけるローランク適応(LoRA)の逆調整のような堅牢な微調整法が提案されているが、完全なパラメータ逆微調整の精度の一致に苦慮している。
本稿では,モデルロバスト性を効率的にかつ効率的に向上するために,異なる手法間で共有された防御知識を活用するハイパー対戦チューニング(HyperAT)を提案する。
論文 参考訳(メタデータ) (2024-10-08T12:05:01Z) - Position: Towards Resilience Against Adversarial Examples [42.09231029292568]
我々は、敵の弾力性の定義と、敵の弾力性のある防御を設計する方法について概観する。
次に, 対向弾性のサブプロブレムを導入し, 連続適応ロバストネス(continuousal adapt robustness)と呼ぶ。
本研究では, 連続適応ロバストネスと, マルチアタックロバストネスと予期せぬアタックロバストネスの関連性を実証する。
論文 参考訳(メタデータ) (2024-05-02T14:58:44Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Parameter-Saving Adversarial Training: Reinforcing Multi-Perturbation
Robustness via Hypernetworks [47.21491911505409]
敵の訓練は、敵の摂動から守る最もポピュラーで効果的な方法の1つである。
本稿では,多摂動頑健性を高めるために,新しい多摂動対向トレーニングフレームワークであるパラメータセービング対向トレーニング(PSAT)を提案する。
論文 参考訳(メタデータ) (2023-09-28T07:16:02Z) - Cooperation or Competition: Avoiding Player Domination for Multi-Target
Robustness via Adaptive Budgets [76.20705291443208]
我々は、敵攻撃を、異なるプレイヤーがパラメータ更新の合同方向で合意に達するために交渉する交渉ゲームであると見なしている。
我々は、プレイヤーの優位性を避けるために、異なる敵の予算を調整する新しいフレームワークを設計する。
標準ベンチマークの実験では、提案したフレームワークを既存のアプローチに適用することで、マルチターゲットロバスト性が大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-06-27T14:02:10Z) - "What's in the box?!": Deflecting Adversarial Attacks by Randomly
Deploying Adversarially-Disjoint Models [71.91835408379602]
敵の例は長い間、機械学習モデルに対する真の脅威と考えられてきた。
我々は、従来のホワイトボックスやブラックボックスの脅威モデルを超えた、配置ベースの防衛パラダイムを提案する。
論文 参考訳(メタデータ) (2021-02-09T20:07:13Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。