論文の概要: Adversarial Examples in Constrained Domains
- arxiv url: http://arxiv.org/abs/2011.01183v3
- Date: Fri, 9 Sep 2022 17:00:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-09-30 13:08:30.103336
- Title: Adversarial Examples in Constrained Domains
- Title(参考訳): 制約領域における逆例
- Authors: Ryan Sheatsley, Nicolas Papernot, Michael Weisman, Gunjan Verma,
Patrick McDaniel
- Abstract要約: 本稿では,制約領域が非制約領域よりも脆弱でないかどうかを,逆例生成アルゴリズムを用いて検討する。
我々のアプローチは、制約のない領域に匹敵する制約付き領域における誤分類率を生成する。
本研究は, 制限領域によって露出される狭い攻撃面が, 敵の例を成功させるのに十分な大きさであることを示す。
- 参考スコア(独自算出の注目度): 29.137629314003423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning algorithms have been shown to be vulnerable to adversarial
manipulation through systematic modification of inputs (e.g., adversarial
examples) in domains such as image recognition. Under the default threat model,
the adversary exploits the unconstrained nature of images; each feature (pixel)
is fully under control of the adversary. However, it is not clear how these
attacks translate to constrained domains that limit which and how features can
be modified by the adversary (e.g., network intrusion detection). In this
paper, we explore whether constrained domains are less vulnerable than
unconstrained domains to adversarial example generation algorithms. We create
an algorithm for generating adversarial sketches: targeted universal
perturbation vectors which encode feature saliency within the envelope of
domain constraints. To assess how these algorithms perform, we evaluate them in
constrained (e.g., network intrusion detection) and unconstrained (e.g., image
recognition) domains. The results demonstrate that our approaches generate
misclassification rates in constrained domains that were comparable to those of
unconstrained domains (greater than 95%). Our investigation shows that the
narrow attack surface exposed by constrained domains is still sufficiently
large to craft successful adversarial examples; and thus, constraints do not
appear to make a domain robust. Indeed, with as little as five randomly
selected features, one can still generate adversarial examples.
- Abstract(参考訳): 機械学習アルゴリズムは、画像認識などの領域における入力(例えば、逆例)を体系的に修正することで、逆操作に弱いことが示されている。
デフォルトの脅威モデルでは、敵は画像の制約されていない性質を悪用し、それぞれの機能(ピクセル)は敵を完全に制御している。
しかし、これらの攻撃がどのように制限されたドメインに変換され、どの機能が敵によって修正されるかは明らかになっていない(例えば、ネットワーク侵入検出)。
本稿では,制約付きドメインが非制約型ドメインに比べて,逆例生成アルゴリズムの脆弱性が少ないかを検討する。
我々は,ドメイン制約の包絡内での特徴の持続性をエンコードする汎用摂動ベクトルを対象とする,敵対的スケッチを生成するアルゴリズムを作成する。
これらのアルゴリズムの性能を評価するために,制約のある領域(ネットワーク侵入検出など)と制約のない領域(画像認識など)で評価する。
その結果,本手法は制約領域の非制約領域(95%以上)に匹敵する誤分類率を生じさせることがわかった。
本研究は,制約領域が露出する狭い攻撃面が,攻撃例を作成するのに十分大きいことを示し,制約がドメインを堅牢にしないことを示す。
実際、ランダムに選択された5つの機能で、逆の例を生成できる。
関連論文リスト
- Uncertainty-based Detection of Adversarial Attacks in Semantic
Segmentation [16.109860499330562]
本稿では,セマンティックセグメンテーションにおける敵攻撃検出のための不確実性に基づくアプローチを提案する。
本研究は,複数種類の敵対的攻撃を対象とする摂動画像の検出能力を示す。
論文 参考訳(メタデータ) (2023-05-22T08:36:35Z) - Quantifying and Understanding Adversarial Examples in Discrete Input
Spaces [70.18815080530801]
我々は、任意の離散的な設定で適用される同義的逆例の概念を定式化し、そのような例を構成するための単純なドメインに依存しないアルゴリズムを記述する。
我々の研究は、連続入力と類似した離散逆例のドメインに依存しない処理への一歩である。
論文 参考訳(メタデータ) (2021-12-12T16:44:09Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - On the Robustness of Domain Constraints [0.4194295877935867]
逆転例がモデル化されたドメインにおける現実的な入力を表すかどうかは不明である。
本稿では、ドメイン制約が敵の能力を制限する方法を検討する。
学習した制約を、相手のクラフトプロセスに統合する方法を示します。
論文 参考訳(メタデータ) (2021-05-18T15:49:55Z) - Domain Invariant Adversarial Learning [12.48728566307251]
我々は、堅牢かつドメイン不変である特徴表現を学習するDomain Invariant Adversarial Learning (DIAL)を提示する。
我々は,現在最先端の対人訓練法と比較して,頑健さと自然な精度を両立させることで,その利点を実証する。
論文 参考訳(メタデータ) (2021-04-01T08:04:10Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - An Analysis of Robustness of Non-Lipschitz Networks [35.64511156980701]
小さな入力摂動は、しばしばネットワークの最終層の特徴空間において大きな動きを引き起こす。
我々のモデルでは、敵対者は特徴空間において任意の距離でデータを移動することができるが、ランダムな低次元部分空間においてのみである。
データ駆動方式を用いて,アルゴリズムパラメータの設定を精度保持トレードオフよりも最適化するための理論的保証を提供する。
論文 参考訳(メタデータ) (2020-10-13T03:56:39Z) - Gradually Vanishing Bridge for Adversarial Domain Adaptation [156.46378041408192]
我々は,ジェネレータと判別器の両方にGVB(Gradually Vanishing Bridge)機構を併用した対向領域適応を行う。
ジェネレータでは、GVBは全体の転送困難を軽減できるだけでなく、残留ドメイン固有の特性の影響を低減できる。
判別器では、GVBは識別能力を高め、敵の訓練過程のバランスをとることに寄与する。
論文 参考訳(メタデータ) (2020-03-30T01:36:13Z) - CrDoCo: Pixel-level Domain Transfer with Cross-Domain Consistency [119.45667331836583]
教師なしのドメイン適応アルゴリズムは、あるドメインから学んだ知識を別のドメインに転送することを目的としている。
本稿では,新しい画素単位の対向領域適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-09T19:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。