論文の概要: On the Robustness of Domain Constraints
- arxiv url: http://arxiv.org/abs/2105.08619v1
- Date: Tue, 18 May 2021 15:49:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 13:48:34.365859
- Title: On the Robustness of Domain Constraints
- Title(参考訳): 領域制約のロバスト性について
- Authors: Ryan Sheatsley and Blaine Hoak and Eric Pauley and Yohan Beugin and
Michael J. Weisman and Patrick McDaniel
- Abstract要約: 逆転例がモデル化されたドメインにおける現実的な入力を表すかどうかは不明である。
本稿では、ドメイン制約が敵の能力を制限する方法を検討する。
学習した制約を、相手のクラフトプロセスに統合する方法を示します。
- 参考スコア(独自算出の注目度): 0.4194295877935867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning is vulnerable to adversarial examples-inputs designed to
cause models to perform poorly. However, it is unclear if adversarial examples
represent realistic inputs in the modeled domains. Diverse domains such as
networks and phishing have domain constraints-complex relationships between
features that an adversary must satisfy for an attack to be realized (in
addition to any adversary-specific goals). In this paper, we explore how domain
constraints limit adversarial capabilities and how adversaries can adapt their
strategies to create realistic (constraint-compliant) examples. In this, we
develop techniques to learn domain constraints from data, and show how the
learned constraints can be integrated into the adversarial crafting process. We
evaluate the efficacy of our approach in network intrusion and phishing
datasets and find: (1) up to 82% of adversarial examples produced by
state-of-the-art crafting algorithms violate domain constraints, (2) domain
constraints are robust to adversarial examples; enforcing constraints yields an
increase in model accuracy by up to 34%. We observe not only that adversaries
must alter inputs to satisfy domain constraints, but that these constraints
make the generation of valid adversarial examples far more challenging.
- Abstract(参考訳): 機械学習は、モデルのパフォーマンスを損なうように設計された逆例入力に対して脆弱である。
しかし、逆例がモデル化された領域における現実的な入力を表すかどうかは不明である。
ネットワークやフィッシングのような様々なドメインは、敵が攻撃を実現するために満たさなければならない特徴(敵固有の目標に加えて)の間のドメイン制約と複雑な関係を持つ。
本稿では,ドメイン制約が敵の能力を制限する方法と,現実的な(制約に従順な)例を作成するために敵の戦略をどのように適用できるかを検討する。
そこで本研究では,データからドメイン制約を学習する手法を開発し,学習した制約を敵対的工法に組み込む方法を示す。
ネットワーク侵入とフィッシングデータセットにおける我々のアプローチの有効性を評価し,(1)最先端の工法アルゴリズムが生成する敵例の最大82%がドメイン制約に違反し,(2)ドメイン制約は敵例に対して堅牢であり,制約を強制するとモデル精度が最大34%向上することを示した。
我々は、ドメイン制約を満たすために入力を変更する必要があるだけでなく、これらの制約が有効な敵例の生成をより困難にしていることを観察する。
関連論文リスト
- Enhancing Adversarial Robustness via Uncertainty-Aware Distributional Adversarial Training [43.766504246864045]
そこで本研究では,不確実性を考慮した分散対向学習手法を提案する。
提案手法は, 最先端の対向性を実現し, 自然性能を維持できる。
論文 参考訳(メタデータ) (2024-11-05T07:26:24Z) - FullCert: Deterministic End-to-End Certification for Training and Inference of Neural Networks [62.897993591443594]
FullCertは、音と決定論的境界を持つ最初のエンドツーエンドの認証器である。
2つのデータセットに対してFullCertの有効性を実験的に示す。
論文 参考訳(メタデータ) (2024-06-17T13:23:52Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - On Regularization and Inference with Label Constraints [62.60903248392479]
機械学習パイプラインにおけるラベル制約を符号化するための2つの戦略、制約付き正規化、制約付き推論を比較した。
正規化については、制約に不整合なモデルを前置することで一般化ギャップを狭めることを示す。
制約付き推論では、モデルの違反を訂正することで人口リスクを低減し、それによってその違反を有利にすることを示す。
論文 参考訳(メタデータ) (2023-07-08T03:39:22Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - A Unified Framework for Adversarial Attack and Defense in Constrained
Feature Space [13.096022606256973]
本稿では、与えられたドメイン制約を満たす実行可能な逆例を生成するための統一的なフレームワークを提案する。
我々のフレームワークは、制約された敵攻撃の研究の出発点を形成し、研究が活用できる関連するベースラインとデータセットを提供します。
論文 参考訳(メタデータ) (2021-12-02T12:05:27Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Adversarial Robustness with Non-uniform Perturbations [3.804240190982695]
先行研究は主に、非知覚性の要件を維持するために、機能間で小さな均一なノルムバウンドの摂動で敵対的な例を作ることに重点を置いている。
我々のアプローチは、非一様摂動が現実的な対角的例をより正確に表現する他の領域に適応することができる。
論文 参考訳(メタデータ) (2021-02-24T00:54:43Z) - Universal Adversarial Perturbations for Malware [15.748648955898528]
universal adversarial perturbation (uaps) は入力空間全体に一般化するノイズパターンを特定する。
マルウェア分類におけるUAPの課題と強みについて検討する。
本稿では,問題空間変換に基づく知識を用いた逆トレーニングに基づく緩和を提案する。
論文 参考訳(メタデータ) (2021-02-12T20:06:10Z) - Adversarial Examples in Constrained Domains [29.137629314003423]
本稿では,制約領域が非制約領域よりも脆弱でないかどうかを,逆例生成アルゴリズムを用いて検討する。
我々のアプローチは、制約のない領域に匹敵する制約付き領域における誤分類率を生成する。
本研究は, 制限領域によって露出される狭い攻撃面が, 敵の例を成功させるのに十分な大きさであることを示す。
論文 参考訳(メタデータ) (2020-11-02T18:19:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。