論文の概要: Towards Robust Domain Generation Algorithm Classification
- arxiv url: http://arxiv.org/abs/2404.06236v1
- Date: Tue, 9 Apr 2024 11:56:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-10 14:50:19.022784
- Title: Towards Robust Domain Generation Algorithm Classification
- Title(参考訳): ロバスト領域生成アルゴリズムの分類に向けて
- Authors: Arthur Drichel, Marc Meyer, Ulrike Meyer,
- Abstract要約: 我々は32個のホワイトボックス攻撃を実装し、そのうち19個は非常に効果的であり、未硬化の分類器に対して$approx$100%の偽陰性率(FNR)を誘導する。
本稿では, 対角線空間ベクトルと離散化された対角線領域を利用して, 強靭性を大幅に向上させる新しいトレーニング手法を提案する。
- 参考スコア(独自算出の注目度): 1.4542411354617986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we conduct a comprehensive study on the robustness of domain generation algorithm (DGA) classifiers. We implement 32 white-box attacks, 19 of which are very effective and induce a false-negative rate (FNR) of $\approx$ 100\% on unhardened classifiers. To defend the classifiers, we evaluate different hardening approaches and propose a novel training scheme that leverages adversarial latent space vectors and discretized adversarial domains to significantly improve robustness. In our study, we highlight a pitfall to avoid when hardening classifiers and uncover training biases that can be easily exploited by attackers to bypass detection, but which can be mitigated by adversarial training (AT). In our study, we do not observe any trade-off between robustness and performance, on the contrary, hardening improves a classifier's detection performance for known and unknown DGAs. We implement all attacks and defenses discussed in this paper as a standalone library, which we make publicly available to facilitate hardening of DGA classifiers: https://gitlab.com/rwth-itsec/robust-dga-detection
- Abstract(参考訳): 本研究では,ドメイン生成アルゴリズム(DGA)分類器の堅牢性に関する総合的研究を行う。
我々は32個のホワイトボックス攻撃を実装し、そのうち19個は非常に効果的であり、未硬化の分類器に対して$\approx$100\%の偽陰性率(FNR)を誘導する。
分類器の保護のために, 異なるハードニング手法を評価し, 対角線空間ベクトルと離散化された対角線領域を活用し, 堅牢性を大幅に向上させる新しいトレーニング手法を提案する。
本研究では,攻撃者が容易に回避できるが,敵の訓練(AT)によって軽減できるような,分類器の硬化や訓練バイアスの発見を防止するための落とし穴について強調する。
本研究では、ロバスト性と性能のトレードオフを観測しないが、それとは対照的に、強化により、未知のDGAに対する分類器の検出性能が向上する。
本論文では、DGA分類器の強化を容易にするために、スタンドアロンライブラリとして議論されたすべての攻撃と防御を実装している。
関連論文リスト
- Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - False Sense of Security: Leveraging XAI to Analyze the Reasoning and
True Performance of Context-less DGA Classifiers [1.930852251165745]
ディープラーニング分類器が99.9%以上の精度を達成したことを考えると、ドメイン生成アルゴリズム(DGA)の検出は解決されているようである。
これらの分類器は、非常に偏りがあり、自明な検出バイパスを可能にするため、誤ったセキュリティ感覚を提供する。
本研究では,説明可能な人工知能(XAI)手法を用いて,ディープラーニング分類器の推論を解析する。
論文 参考訳(メタデータ) (2023-07-10T06:05:23Z) - Classifier Robustness Enhancement Via Test-Time Transformation [14.603209216642034]
アドリナルトレーニングは、現在、敵の攻撃下での分類を達成するための最もよく知られている方法である。
本稿では,ロバストネス向上型テスト時間変換(TETRA)について紹介する。
本研究では,提案手法が最先端の成果を達成し,広範囲な実験を通じてその主張を検証した。
論文 参考訳(メタデータ) (2023-03-27T17:28:20Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Improving Adversarial Robustness via Joint Classification and Multiple
Explicit Detection Classes [11.584771636861877]
証明可能なフレームワークは、複数の明示的なAbtainクラスを持つネットワークの拡張によって恩恵を受けることができることを示す。
本稿では,複数クラスをフル活用することで,このデジェネリティーに対処するための正規化手法とトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-10-26T01:23:33Z) - Detection and Mitigation of Byzantine Attacks in Distributed Training [24.951227624475443]
ワーカノードの異常なビザンチン挙動は、トレーニングを脱線させ、推論の品質を損なう可能性がある。
最近の研究は、幅広い攻撃モデルを検討し、歪んだ勾配を補正するために頑健な集約と/または計算冗長性を探究している。
本研究では、強力な攻撃モデルについて検討する:$q$ omniscient adversaries with full knowledge of the defense protocol that can change from iteration to iteration to weak one: $q$ randomly selected adversaries with limited collusion abilities。
論文 参考訳(メタデータ) (2022-08-17T05:49:52Z) - PARL: Enhancing Diversity of Ensemble Networks to Resist Adversarial
Attacks via Pairwise Adversarially Robust Loss Function [13.417003144007156]
敵の攻撃は 転送可能性の原理に 依存する傾向があります
敵攻撃に対するアンサンブル法は、敵の例が複数の分類器を誤解させる可能性が低いことを示す。
最近のアンサンブル法は、より強い敵に弱いか、エンドツーエンドの評価が欠如していることが示されている。
論文 参考訳(メタデータ) (2021-12-09T14:26:13Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。