論文の概要: Learning Security Classifiers with Verified Global Robustness Properties
- arxiv url: http://arxiv.org/abs/2105.11363v1
- Date: Mon, 24 May 2021 15:46:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 14:51:54.431656
- Title: Learning Security Classifiers with Verified Global Robustness Properties
- Title(参考訳): グローバルロバスト性を検証したセキュリティ分類器の学習
- Authors: Yizheng Chen, Shiqi Wang, Yue Qin, Xiaojing Liao, Suman Jana, David
Wagner
- Abstract要約: 近年,局所ロバスト性を持つ分類器の訓練法が提案されている。
局所ロバスト性は、ほとんどの入力に対する回避攻撃のクラスを確実に排除できるが、全ての入力は排除できない。
すべての入力に対して保持する大域的ロバスト性(英語版)を強制することが望ましいが、これは局所ロバスト性よりも強い。
- 参考スコア(独自算出の注目度): 33.49503521304698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works have proposed methods to train classifiers with local robustness
properties, which can provably eliminate classes of evasion attacks for most
inputs, but not all inputs. Since data distribution shift is very common in
security applications, e.g., often observed for malware detection, local
robustness cannot guarantee that the property holds for unseen inputs at the
time of deploying the classifier. Therefore, it is more desirable to enforce
global robustness properties that hold for all inputs, which is strictly
stronger than local robustness.
In this paper, we present a framework and tools for training classifiers that
satisfy global robustness properties. We define new notions of global
robustness that are more suitable for security classifiers. We design a novel
booster-fixer training framework to enforce global robustness properties. We
structure our classifier as an ensemble of logic rules and design a new
verifier to verify the properties. In our training algorithm, the booster
increases the classifier's capacity, and the fixer enforces verified global
robustness properties following counterexample guided inductive synthesis.
To the best of our knowledge, the only global robustness property that has
been previously achieved is monotonicity. Several previous works have defined
global robustness properties, but their training techniques failed to achieve
verified global robustness. In comparison, we show that we can train
classifiers to satisfy different global robustness properties for three
security datasets, and even multiple properties at the same time, with modest
impact on the classifier's performance. For example, we train a Twitter spam
account classifier to satisfy five global robustness properties, with 5.4%
decrease in true positive rate, and 0.1% increase in false positive rate,
compared to a baseline XGBoost model that doesn't satisfy any property.
- Abstract(参考訳): 近年の研究では、ほとんどの入力に対する回避攻撃のクラスを確実に排除できるが、全ての入力は排除できる局所ロバスト性を持つ分類器を訓練する方法が提案されている。
データ分散シフトは、マルウェア検出のためにしばしば観測されるセキュリティアプリケーションで非常に一般的であるため、ローカルロバスト性は、分類器のデプロイ時に、そのプロパティが見えない入力を保持することを保証できない。
したがって、全ての入力を保持するグローバルロバスト性(局所ロバスト性よりも厳格に強い)を強制することがより望ましい。
本稿では,グローバルロバスト性特性を満たす分類器を訓練するためのフレームワークとツールを提案する。
我々は,セキュリティ分類器に適したグローバルロバスト性の概念を新たに定義する。
我々は,グローバルなロバスト性特性を強制する新しいブースターフィッカトレーニングフレームワークを設計した。
我々は、論理規則の集合として分類器を構成し、その特性を検証するために新しい検証器を設計する。
学習アルゴリズムでは, 昇圧器は分類器の容量を増加させ, 固定器は反例誘導型インダクティブ合成の後, 検証されたグローバルロバスト性特性を強制する。
我々の知る限りでは、これまで達成された唯一の大域的堅牢性は単調性である。
これまでのいくつかの研究でグローバルロバスト性が定義されているが、そのトレーニング技術はグローバルロバスト性が証明されていない。
比較として,3つのセキュリティデータセットに対して異なるグローバルロバスト性特性,さらには複数のプロパティを同時に満たすように分類器を訓練し,分類器の性能に少なからぬ影響を与えることを示した。
例えば、twitterのスパムアカウント分類器をトレーニングして、5つのグローバルなロバスト性特性を満たし、5.4%の真の陽性率と0.1%の偽陽性率で、いかなる特性も満たさないベースラインのxgboostモデルと比較します。
関連論文リスト
- Verification of Neural Networks' Global Robustness [1.889153094567799]
VHAGaRは、最小限の大域的ロバストな境界を求めるための任意の検証器である。
VHAGaRは、既存の大域的ロバスト性検証器よりも130.6倍高速であることを示す。
論文 参考訳(メタデータ) (2024-02-29T16:27:59Z) - Adaptive Global-Local Representation Learning and Selection for
Cross-Domain Facial Expression Recognition [54.334773598942775]
ドメインシフトは、クロスドメイン顔表情認識(CD-FER)において重要な課題となる
適応的グローバルローカル表現学習・選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-20T02:21:41Z) - GREAT Score: Global Robustness Evaluation of Adversarial Perturbation using Generative Models [60.48306899271866]
GREATスコア(GREAT Score)と呼ばれる新しいフレームワークを提案する。
我々は,ロバストベンチにおける攻撃ベースモデルと比較し,高い相関性を示し,GREATスコアのコストを大幅に削減した。
GREAT Scoreは、プライバシーに敏感なブラックボックスモデルのリモート監査に使用することができる。
論文 参考訳(メタデータ) (2023-04-19T14:58:27Z) - Defensive Patches for Robust Recognition in the Physical World [111.46724655123813]
データエンドディフェンスは、モデルを変更する代わりに入力データの操作によって堅牢性を改善する。
従来のデータエンドディフェンスは、様々なノイズに対する低一般化と、複数のモデル間での弱い転送可能性を示している。
モデルがこれらの機能をよりよく活用することを支援することにより、これらの問題に対処するための防御パッチ生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-13T07:34:51Z) - A Little Robustness Goes a Long Way: Leveraging Universal Features for
Targeted Transfer Attacks [4.511923587827301]
我々は、ソース分類器を「わずかに堅牢」に訓練することで、標的攻撃の転送可能性を大幅に向上させることを示した。
この結果は非逆仮説を支持すると我々は主張する。
論文 参考訳(メタデータ) (2021-06-03T19:53:46Z) - Globally-Robust Neural Networks [21.614262520734595]
我々は、オンラインローカルロバストネス認証の運用特性を捉えた、グローバルロバストネスの概念を定式化する。
効率的なグローバルLipschitz境界をネットワークに組み込むことにより、広く使用されているアーキテクチャをこの目的に容易に適応できることを示します。
論文 参考訳(メタデータ) (2021-02-16T21:10:52Z) - A general framework for defining and optimizing robustness [74.67016173858497]
分類器の様々な種類の堅牢性を定義するための厳密でフレキシブルなフレームワークを提案する。
我々の概念は、分類器の堅牢性は正確性とは無関係な性質と考えるべきであるという仮定に基づいている。
我々は,任意の分類モデルに適用可能な,非常に一般的なロバスト性フレームワークを開発する。
論文 参考訳(メタデータ) (2020-06-19T13:24:20Z) - How to compare adversarial robustness of classifiers from a global
perspective [0.0]
敵対的攻撃は、機械学習モデルの信頼性と信頼性を損なう。
特定の脅威モデルのポイントワイド測度は、現在、分類器の堅牢性を比較するための最も一般的なツールである。
本研究では,最近提案されたロバストネス曲線を用いて,ポイントワイド測度が重要なグローバルな特性を捉えることができないことを示す。
論文 参考訳(メタデータ) (2020-04-22T22:07:49Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。