論文の概要: Cooperation or Competition: Avoiding Player Domination for Multi-Target
Robustness via Adaptive Budgets
- arxiv url: http://arxiv.org/abs/2306.15482v1
- Date: Tue, 27 Jun 2023 14:02:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 13:23:26.834440
- Title: Cooperation or Competition: Avoiding Player Domination for Multi-Target
Robustness via Adaptive Budgets
- Title(参考訳): 協力・競争:適応予算による多目的ロバストネスのプレイヤー支配を回避する
- Authors: Yimu Wang, Dinghuai Zhang, Yihan Wu, Heng Huang, Hongyang Zhang
- Abstract要約: 我々は、敵攻撃を、異なるプレイヤーがパラメータ更新の合同方向で合意に達するために交渉する交渉ゲームであると見なしている。
我々は、プレイヤーの優位性を避けるために、異なる敵の予算を調整する新しいフレームワークを設計する。
標準ベンチマークの実験では、提案したフレームワークを既存のアプローチに適用することで、マルチターゲットロバスト性が大幅に向上することが示された。
- 参考スコア(独自算出の注目度): 76.20705291443208
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite incredible advances, deep learning has been shown to be susceptible
to adversarial attacks. Numerous approaches have been proposed to train robust
networks both empirically and certifiably. However, most of them defend against
only a single type of attack, while recent work takes steps forward in
defending against multiple attacks. In this paper, to understand multi-target
robustness, we view this problem as a bargaining game in which different
players (adversaries) negotiate to reach an agreement on a joint direction of
parameter updating. We identify a phenomenon named player domination in the
bargaining game, namely that the existing max-based approaches, such as MAX and
MSD, do not converge. Based on our theoretical analysis, we design a novel
framework that adjusts the budgets of different adversaries to avoid any player
dominance. Experiments on standard benchmarks show that employing the proposed
framework to the existing approaches significantly advances multi-target
robustness.
- Abstract(参考訳): 驚くべき進歩にもかかわらず、深い学習は敵の攻撃を受けやすいことが示されている。
実証的および証明的にロバストなネットワークを訓練するための多くのアプローチが提案されている。
しかし、そのほとんどは1種類の攻撃に対してのみ防御するが、最近の研究は複数の攻撃に対して防御を行うための一歩を踏み出している。
本稿では,多目的ロバスト性を理解するために,パラメータ更新のジョイント方向に関する合意に達するために,異なるプレイヤー(敵)が交渉する交渉ゲームとしてこの問題を考察する。
我々は,バーゲティングゲームにおいて,MAXやMSDといった既存のマックスベースアプローチが収束しない現象を,プレイヤーが支配する現象を特定する。
理論的解析に基づいて,プレイヤーの優位性を回避するために,異なる敵の予算を調整する新しい枠組みを設計する。
標準ベンチマーク実験では,提案手法を既存手法に適用することで,多目的ロバスト性が著しく向上することが示された。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Adversarial Attacks on Cooperative Multi-agent Bandits [41.79235070291252]
本研究は,CMA2Bに対する不均質および不均質な環境下での敵攻撃について検討する。
均質な設定では、各エージェントが特定のターゲットアームを$T-o(T)$倍選択し、$o(T)$攻撃コストを$T$ラウンドで発生させる攻撃戦略を提案する。
不均質な環境では、標的アーム攻撃が線形攻撃コストを必要とすることを証明し、少数の標的エージェントの観測のみを操作しながら、最大数のエージェントに線形後悔を強いる攻撃戦略を提案する。
論文 参考訳(メタデータ) (2023-11-03T04:03:19Z) - Parameter-Saving Adversarial Training: Reinforcing Multi-Perturbation
Robustness via Hypernetworks [47.21491911505409]
敵の訓練は、敵の摂動から守る最もポピュラーで効果的な方法の1つである。
本稿では,多摂動頑健性を高めるために,新しい多摂動対向トレーニングフレームワークであるパラメータセービング対向トレーニング(PSAT)を提案する。
論文 参考訳(メタデータ) (2023-09-28T07:16:02Z) - Robust multi-agent coordination via evolutionary generation of auxiliary
adversarial attackers [23.15190337027283]
副次的攻撃者生成によるロバスト多エージェント協調(ROMANCE)を提案する。
ROMANCEは、訓練中に多種多様で強力な補助的敵攻撃に遭遇することを可能にし、様々な政策摂動の下で高い堅牢性を達成する。
品質の目標は、エゴシステムのコーディネーション効果を最小限に抑えることであり、攻撃者間の振る舞いを多様化するために、新しい多様性レギュレータを適用することである。
論文 参考訳(メタデータ) (2023-05-10T05:29:47Z) - Dynamic Stochastic Ensemble with Adversarial Robust Lottery Ticket
Subnetworks [4.665836414515929]
敵攻撃はCNNの脆弱性と見なされている。
ダイナミックディフェンスフレームワーク(DDF)は先日、アンサンブルモデルに基づいて、受動的安全性ステータスクオを変更した。
本研究では,ダイナミックアンサンブル防衛戦略を実現する方法を提案する。
論文 参考訳(メタデータ) (2022-10-06T00:33:19Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z) - AdvMS: A Multi-source Multi-cost Defense Against Adversarial Attacks [81.45930614122925]
ディープニューラルネットワークは、マルウェア検出や自動運転車など、多くのセキュリティクリティカルな領域で急速に普及している。
従来の防衛手法は有望だが、単一ソースの単一コストの性質によってほとんど制限されている。
本稿では,AdvMSのマルチソース特性が性能評価問題を緩和し,多コスト特性が柔軟性と調整可能なコストの組み合わせによるロバスト性の向上を可能にすることを示す。
論文 参考訳(メタデータ) (2020-02-19T20:46:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。