論文の概要: When Should You Defend Your Classifier -- A Game-theoretical Analysis of
Countermeasures against Adversarial Examples
- arxiv url: http://arxiv.org/abs/2108.07602v1
- Date: Tue, 17 Aug 2021 13:06:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 17:12:04.763119
- Title: When Should You Defend Your Classifier -- A Game-theoretical Analysis of
Countermeasures against Adversarial Examples
- Title(参考訳): 分類器はいつ防衛すべきか--敵の事例に対する対策の理論的分析-
- Authors: Maximilian Samsinger, Florian Merkle, Pascal Sch\"ottle, Tomas Pevny
- Abstract要約: 本稿では,先進的対人分類ゲームを提案する。
特に, 両面の経済要因を考慮し, これまでに提案した対人的事例に対する対策が, 良性サンプルの精度を低下させていることを考察した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial machine learning, i.e., increasing the robustness of machine
learning algorithms against so-called adversarial examples, is now an
established field. Yet, newly proposed methods are evaluated and compared under
unrealistic scenarios where costs for adversary and defender are not considered
and either all samples are attacked or no sample is attacked. We scrutinize
these assumptions and propose the advanced adversarial classification game,
which incorporates all relevant parameters of an adversary and a defender in
adversarial classification. Especially, we take into account economic factors
on both sides and the fact that all so far proposed countermeasures against
adversarial examples reduce accuracy on benign samples. Analyzing the scenario
in detail, where both players have two pure strategies, we identify all best
responses and conclude that in practical settings, the most influential factor
might be the maximum amount of adversarial examples.
- Abstract(参考訳): 敵対的機械学習、すなわち、いわゆる敵対的な例に対する機械学習アルゴリズムの堅牢性を高めることは、現在確立された分野である。
しかし,非現実的なシナリオでは,敵と守備の費用が考慮されず,全てのサンプルが攻撃されたり,サンプルが攻撃されたりしない。
我々は,これらの仮定を精査し,advanced adversarial classification game(advanced adversarial classification game,advanced adversarial classification)を提案する。
特に, 両面の経済要因を考慮し, これまでに提案した対人的事例に対する対策が, 良性サンプルの精度を低下させていることを考察した。
両プレイヤーが2つの純粋な戦略を持つシナリオを詳細に分析し、全ての最良の反応を識別し、実践的な設定では、最も影響力のある要因が敵の最大数の例である可能性があると結論付ける。
関連論文リスト
- Distributional Adversarial Loss [15.258476329309044]
敵の攻撃に対して防衛する上での大きな課題は、単純な敵さえも実行可能な攻撃の巨大な空間である。
これにはランダムな平滑化手法が含まれており、敵の影響を除去するために入力にノイズを加える。
もう一つのアプローチは入力の離散化であり、敵の可能なアクションの数を制限する。
論文 参考訳(メタデータ) (2024-06-05T17:03:47Z) - Revisiting Transferable Adversarial Image Examples: Attack
Categorization, Evaluation Guidelines, and New Insights [30.14129637790446]
トランスファー可能な敵の例は、現実のブラックボックス攻撃シナリオにおいて重要なセキュリティ上の懸念を引き起こす。
本研究は,共通評価実践における2つの主要な問題点を明らかにするものである。
我々は、ImageNet上で転送可能な敵例を大規模に評価する。
論文 参考訳(メタデータ) (2023-10-18T10:06:42Z) - Rethinking Textual Adversarial Defense for Pre-trained Language Models [79.18455635071817]
文献レビューでは、事前訓練された言語モデル(PrLM)が敵の攻撃に弱いことが示されている。
本稿では、現在の敵攻撃アプローチにより、より自然で知覚不能な敵の例を生成するための新しい指標(異常の度合い)を提案する。
我々は,我々のユニバーサル・ディフェンス・フレームワークが,他の特定のディフェンスと同等あるいはそれ以上のアフターアタック・ディフェンスの精度を達成することを示す。
論文 参考訳(メタデータ) (2022-07-21T07:51:45Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Advocating for Multiple Defense Strategies against Adversarial Examples [66.90877224665168]
ニューラルネットワークを$ell_infty$敵の例から保護するために設計された防御機構が、性能の低下を実証的に観察されている。
本稿では,この観測を検証した幾何学的解析を行う。
そこで本研究では,この現象の実際的影響を説明するための実証的な知見を多数提示する。
論文 参考訳(メタデータ) (2020-12-04T14:42:46Z) - Are Adversarial Examples Created Equal? A Learnable Weighted Minimax
Risk for Robustness under Non-uniform Attacks [70.11599738647963]
敵の訓練は、強力な攻撃に耐える数少ない防衛の1つである。
従来の防御機構は、基礎となるデータ分布に従って、サンプルに対する均一な攻撃を前提とします。
非一様攻撃に対して重み付けされたミニマックスリスク最適化を提案する。
論文 参考訳(メタデータ) (2020-10-24T21:20:35Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。