論文の概要: Randomization matters. How to defend against strong adversarial attacks
- arxiv url: http://arxiv.org/abs/2002.11565v5
- Date: Wed, 6 Jan 2021 12:53:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 14:42:46.186167
- Title: Randomization matters. How to defend against strong adversarial attacks
- Title(参考訳): ランダム化が重要。
強固な敵の攻撃から守る方法
- Authors: Rafael Pinot, Raphael Ettedgui, Geovani Rizk, Yann Chevaleyre, Jamal
Atif
- Abstract要約: 敵の攻撃と防御は、古典的な結果が適用されない無限ゼロサムゲームを形成することを示す。
本研究の防御方法は,最先端攻撃に対する対人訓練を著しく上回っていることを示す。
- 参考スコア(独自算出の注目度): 17.438104235331085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Is there a classifier that ensures optimal robustness against all adversarial
attacks? This paper answers this question by adopting a game-theoretic point of
view. We show that adversarial attacks and defenses form an infinite zero-sum
game where classical results (e.g. Sion theorem) do not apply. We demonstrate
the non-existence of a Nash equilibrium in our game when the classifier and the
Adversary are both deterministic, hence giving a negative answer to the above
question in the deterministic regime. Nonetheless, the question remains open in
the randomized regime. We tackle this problem by showing that, undermild
conditions on the dataset distribution, any deterministic classifier can be
outperformed by a randomized one. This gives arguments for using randomization,
and leads us to a new algorithm for building randomized classifiers that are
robust to strong adversarial attacks. Empirical results validate our
theoretical analysis, and show that our defense method considerably outperforms
Adversarial Training against state-of-the-art attacks.
- Abstract(参考訳): すべての敵攻撃に対して最適な堅牢性を保証する分類器はあるか?
本稿では,ゲーム理論的な視点を用いて,この問いに答える。
敵対的攻撃や防御は、古典的結果(例えば、イオン定理)が適用されない無限のゼロサムゲームを形成する。
分類器と敵器がどちらも決定論的であるゲームにおけるナッシュ均衡の非存在を実証し、決定論的システムにおいて上記の問題に対する負の答えを与える。
それでも、この問題は無作為な体制では未解決のままである。
本稿では,データセット分布の過小評価条件として,任意の決定論的分類器をランダム化することにより性能を向上できることを示す。
これにより、ランダム化を利用するための議論が生じ、強い敵攻撃に対して堅牢なランダム化分類器を構築するための新しいアルゴリズムが導かれる。
実験結果は理論解析を検証し,本手法が最先端の攻撃に対する敵意訓練をかなり上回ることを示した。
関連論文リスト
- Sequential Manipulation Against Rank Aggregation: Theory and Algorithm [119.57122943187086]
脆弱なデータ収集プロセスに対するオンライン攻撃を活用します。
ゲーム理論の観点からは、対決シナリオは分布的に堅牢なゲームとして定式化される。
提案手法は,ランクアグリゲーション手法の結果を逐次的に操作する。
論文 参考訳(メタデータ) (2024-07-02T03:31:21Z) - On the Role of Randomization in Adversarially Robust Classification [13.39932522722395]
ランダムなアンサンブルは、敵のリスクに設定された仮説より優れていることを示す。
また、そのような決定論的分類器を含む決定論的仮説セットを明示的に記述する。
論文 参考訳(メタデータ) (2023-02-14T17:51:00Z) - Randomized Smoothing under Attack: How Good is it in Pratice? [17.323638042215013]
まず、理論的証明と分類器に対する攻撃の実践のミスマッチを強調した。
次に,無作為な平滑化を防御として攻撃する。
我々の主な観察は、高い信頼性のロバスト性を得たり、ブラックボックス攻撃を打ち負かす際に、RSの設定に大きなミスマッチがあることである。
論文 参考訳(メタデータ) (2022-04-28T11:37:40Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Robust Stochastic Linear Contextual Bandits Under Adversarial Attacks [81.13338949407205]
近年の研究では、最適なバンディットアルゴリズムは敵攻撃に対して脆弱であり、攻撃の有無で完全に失敗する可能性があることが示されている。
既存の堅牢なバンディットアルゴリズムは、報酬の攻撃下では、非コンテキスト設定でのみ機能する。
完全適応的かつ全能的な攻撃下での線形文脈帯域設定のための最初の頑健な帯域幅アルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-05T22:20:34Z) - Mixed Nash Equilibria in the Adversarial Examples Game [18.181826693937776]
本稿では,ゲーム理論的な観点からの敵対的例の問題に取り組む。
攻撃者および分類者によって形成されるゼロサムゲームにおける混合ナッシュ平衡の存在のオープンな問題を検討する。
論文 参考訳(メタデータ) (2021-02-13T11:47:20Z) - A Game Theoretic Analysis of Additive Adversarial Attacks and Defenses [4.94950858749529]
均衡状態にある攻撃や防御を研究するためのゲーム理論の枠組みを提案する。
データ生成分布から有限個のサンプルからこの平衡防衛を近似する方法を示す。
論文 参考訳(メタデータ) (2020-09-14T15:51:15Z) - Robustness Guarantees for Mode Estimation with an Application to Bandits [131.21717367564963]
平均ではなく報酬分布のモードを値とするマルチアームバンディットの理論を導入する。
我々は,我々のアルゴリズムが逆雑音列による腕の摂動に頑健であることを示すシミュレーションで示す。
論文 参考訳(メタデータ) (2020-03-05T21:29:27Z) - Robust Stochastic Bandit Algorithms under Probabilistic Unbounded
Adversarial Attack [41.060507338755784]
本稿では,各ラウンドで敵が一定の確率で攻撃する攻撃モデルについて検討する。
そこで我々は, 中央値および探索支援UPBアルゴリズム(med-E-UCB)と中央値の$epsilon$-greedyアルゴリズム(med-$epsilon$-greedy)を提案する。
どちらのアルゴリズムも上記の攻撃モデルに対して確実に堅牢である。より具体的には、どちらのアルゴリズムも$mathcalO(log T)$ pseudo-regret (i.e.)を達成することを示す。
論文 参考訳(メタデータ) (2020-02-17T19:21:08Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z) - Defensive Few-shot Learning [77.82113573388133]
本稿では,防御的数発学習という新たな課題について検討する。
敵の攻撃に対して頑丈な数発のモデルを学習することを目的としている。
提案したフレームワークは、既存の数発のモデルを敵攻撃に対して効果的に堅牢にすることができる。
論文 参考訳(メタデータ) (2019-11-16T05:57:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。