論文の概要: AdvMS: A Multi-source Multi-cost Defense Against Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2002.08439v1
- Date: Wed, 19 Feb 2020 20:46:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 13:54:42.232265
- Title: AdvMS: A Multi-source Multi-cost Defense Against Adversarial Attacks
- Title(参考訳): AdvMS: 敵攻撃に対するマルチソースマルチコスト防衛
- Authors: Xiao Wang, Siyue Wang, Pin-Yu Chen, Xue Lin, Peter Chin
- Abstract要約: ディープニューラルネットワークは、マルウェア検出や自動運転車など、多くのセキュリティクリティカルな領域で急速に普及している。
従来の防衛手法は有望だが、単一ソースの単一コストの性質によってほとんど制限されている。
本稿では,AdvMSのマルチソース特性が性能評価問題を緩和し,多コスト特性が柔軟性と調整可能なコストの組み合わせによるロバスト性の向上を可能にすることを示す。
- 参考スコア(独自算出の注目度): 81.45930614122925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Designing effective defense against adversarial attacks is a crucial topic as
deep neural networks have been proliferated rapidly in many security-critical
domains such as malware detection and self-driving cars. Conventional defense
methods, although shown to be promising, are largely limited by their
single-source single-cost nature: The robustness promotion tends to plateau
when the defenses are made increasingly stronger while the cost tends to
amplify. In this paper, we study principles of designing multi-source and
multi-cost schemes where defense performance is boosted from multiple defending
components. Based on this motivation, we propose a multi-source and multi-cost
defense scheme, Adversarially Trained Model Switching (AdvMS), that inherits
advantages from two leading schemes: adversarial training and random model
switching. We show that the multi-source nature of AdvMS mitigates the
performance plateauing issue and the multi-cost nature enables improving
robustness at a flexible and adjustable combination of costs over different
factors which can better suit specific restrictions and needs in practice.
- Abstract(参考訳): マルウェア検出や自動運転車など、多くのセキュリティクリティカルな領域でディープニューラルネットワークが急速に普及しているため、敵対的攻撃に対する効果的な防御設計は重要なトピックである。
従来の防衛手法は、有望であるにもかかわらず、その単一ソースの単一コストの性質によって大きく制限されている: 堅牢性促進は、防衛が強化され、コストが増幅する傾向にあるときに、より強固になる傾向にある。
本稿では,複数の防御コンポーネントから防御性能を向上させるマルチソースおよびマルチコストスキームの設計原理について検討する。
この動機を活かし,マルチソースおよびマルチコストの防御スキームであるadvm(adversarially training model switching)を提案する。
我々は,advmsのマルチソース性は性能の高原化を緩和し,マルチコスト性は,特定の制約やニーズに適合可能な,さまざまな要因に対する柔軟性と調整可能なコストの組み合わせによる堅牢性の向上を可能にすることを示した。
関連論文リスト
- Multi-Agent Diagnostics for Robustness via Illuminated Diversity [25.906409275726286]
発光ダイバーシティ(MADRID)によるロバストネスのマルチエージェント診断法を提案する。
MADRIDは、事前訓練されたマルチエージェントポリシーの戦略的脆弱性を明らかにする様々な敵シナリオを生成する。
我々は,Google Research Footballの11vs11バージョンにおけるMADRIDの有効性を評価する。
論文 参考訳(メタデータ) (2024-01-24T14:02:09Z) - Parameter-Saving Adversarial Training: Reinforcing Multi-Perturbation
Robustness via Hypernetworks [47.21491911505409]
敵の訓練は、敵の摂動から守る最もポピュラーで効果的な方法の1つである。
本稿では,多摂動頑健性を高めるために,新しい多摂動対向トレーニングフレームワークであるパラメータセービング対向トレーニング(PSAT)を提案する。
論文 参考訳(メタデータ) (2023-09-28T07:16:02Z) - Cooperation or Competition: Avoiding Player Domination for Multi-Target
Robustness via Adaptive Budgets [76.20705291443208]
我々は、敵攻撃を、異なるプレイヤーがパラメータ更新の合同方向で合意に達するために交渉する交渉ゲームであると見なしている。
我々は、プレイヤーの優位性を避けるために、異なる敵の予算を調整する新しいフレームワークを設計する。
標準ベンチマークの実験では、提案したフレームワークを既存のアプローチに適用することで、マルチターゲットロバスト性が大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-06-27T14:02:10Z) - Robust multi-agent coordination via evolutionary generation of auxiliary
adversarial attackers [23.15190337027283]
副次的攻撃者生成によるロバスト多エージェント協調(ROMANCE)を提案する。
ROMANCEは、訓練中に多種多様で強力な補助的敵攻撃に遭遇することを可能にし、様々な政策摂動の下で高い堅牢性を達成する。
品質の目標は、エゴシステムのコーディネーション効果を最小限に抑えることであり、攻撃者間の振る舞いを多様化するために、新しい多様性レギュレータを適用することである。
論文 参考訳(メタデータ) (2023-05-10T05:29:47Z) - Understanding and Measuring Robustness of Multimodal Learning [14.257147031953211]
MUROANと呼ばれるフレームワークを用いて,マルチモーダル学習の対角的堅牢性を総合的に測定する。
まず、MUROANにおけるマルチモーダルモデルの統一ビューを示し、マルチモーダルモデルの融合機構を鍵となる脆弱性として同定する。
次に,MUROANにおけるデカップリング攻撃(decoupling attack)と呼ばれる,マルチモーダルモデルの妥協を目的とした新しいタイプのマルチモーダル敵攻撃を導入する。
論文 参考訳(メタデータ) (2021-12-22T21:10:02Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - "What's in the box?!": Deflecting Adversarial Attacks by Randomly
Deploying Adversarially-Disjoint Models [71.91835408379602]
敵の例は長い間、機械学習モデルに対する真の脅威と考えられてきた。
我々は、従来のホワイトボックスやブラックボックスの脅威モデルを超えた、配置ベースの防衛パラダイムを提案する。
論文 参考訳(メタデータ) (2021-02-09T20:07:13Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。