論文の概要: How to Train your Antivirus: RL-based Hardening through the
Problem-Space
- arxiv url: http://arxiv.org/abs/2402.19027v1
- Date: Thu, 29 Feb 2024 10:38:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 15:12:21.576005
- Title: How to Train your Antivirus: RL-based Hardening through the
Problem-Space
- Title(参考訳): アンチウイルスのトレーニング方法: rlベースの問題領域の強化
- Authors: Jacopo Cortellazzi and Ilias Tsingenopoulos and Branislav
Bo\v{s}ansk\'y and Simone Aonzo and Davy Preuveneers and Wouter Joosen and
Fabio Pierazzi and Lorenzo Cavallaro
- Abstract要約: 経験的ロバスト性を与える唯一の防御技術である逆行訓練は、この領域の最初から適用できない。
本稿では,敵のモデル構築のための新たな強化学習手法を提案する。
- 参考スコア(独自算出の注目度): 23.00693822961603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ML-based malware detection on dynamic analysis reports is vulnerable to both
evasion and spurious correlations. In this work, we investigate a specific ML
architecture employed in the pipeline of a widely-known commercial antivirus
company, with the goal to harden it against adversarial malware. Adversarial
training, the sole defensive technique that can confer empirical robustness, is
not applicable out of the box in this domain, for the principal reason that
gradient-based perturbations rarely map back to feasible problem-space
programs. We introduce a novel Reinforcement Learning approach for constructing
adversarial examples, a constituent part of adversarially training a model
against evasion. Our approach comes with multiple advantages. It performs
modifications that are feasible in the problem-space, and only those; thus it
circumvents the inverse mapping problem. It also makes possible to provide
theoretical guarantees on the robustness of the model against a particular set
of adversarial capabilities. Our empirical exploration validates our
theoretical insights, where we can consistently reach 0\% Attack Success Rate
after a few adversarial retraining iterations.
- Abstract(参考訳): 動的解析レポートに基づくMLベースのマルウェア検出は、回避と急激な相関の両方に対して脆弱である。
本研究では,広く知られた商用アンチウイルス企業のパイプラインで使用される特定のMLアーキテクチャについて検討し,敵のマルウェアに対して強化することを目的とした。
経験的ロバスト性を与える唯一の防御技術である逆行訓練は、この領域では適用できないが、勾配に基づく摂動が実現可能な問題空間プログラムにはほとんどマッピングされない主な理由である。
本稿では,敵のモデル構築のための新たな強化学習手法を提案する。
我々のアプローチには複数の利点がある。
問題空間で実現可能な修正を行い、それらのみを実行するため、逆写像問題を回避できる。
また、特定の敵の能力に対するモデルの堅牢性に関する理論的保証を提供することもできる。
私たちの経験的調査は理論的な洞察を検証し、いくつかの敵の再訓練の後に、一貫して0-%のアタック成功率に達することができます。
関連論文リスト
- Improving Adversarial Robustness in Android Malware Detection by Reducing the Impact of Spurious Correlations [3.7937308360299116]
機械学習(ML)は、Androidのマルウェア検出(AMD)において大きな進歩を見せている。
しかし、現実的な回避攻撃に対するMLのレジリエンスは、AMDにとって大きな障害である。
本研究では,マルウェアサンプルとAEの分布を調整することで,AMDの一般化性を向上させるための領域適応手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T17:01:12Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Mitigating Backdoor Poisoning Attacks through the Lens of Spurious
Correlation [43.75579468533781]
バックドアは、特定のトリガーとターゲットラベルでトレーニングインスタンスを作成できる。
本論文は, バックドア毒殺事件は, 単純なテキスト特徴と分類ラベルとの間には明白な相関関係があることを示唆する。
実験により、悪意のあるトリガーはターゲットラベルと高い相関関係があることが判明した。
論文 参考訳(メタデータ) (2023-05-19T11:18:20Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - RAP: Robustness-Aware Perturbations for Defending against Backdoor
Attacks on NLP Models [29.71136191379715]
本稿では,ロバストネスを意識した摂動に基づく効率的なオンライン防御機構を提案する。
汚染されたサンプルとクリーンなサンプルを区別するために,単語に基づく頑健さを意識した摂動を構築する。
本手法は,既存のオンライン防御手法よりも優れた防御性能と計算コストを実現する。
論文 参考訳(メタデータ) (2021-10-15T03:09:26Z) - Improving White-box Robustness of Pre-processing Defenses via Joint Adversarial Training [106.34722726264522]
対向騒音の干渉を軽減するため,様々な対向防御技術が提案されている。
プレプロセス法は、ロバストネス劣化効果に悩まされることがある。
この負の効果の潜在的な原因は、敵の訓練例が静的であり、前処理モデルとは独立していることである。
本稿では,JATP(Joint Adversarial Training Based Pre-processing)防衛法を提案する。
論文 参考訳(メタデータ) (2021-06-10T01:45:32Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Targeted Forgetting and False Memory Formation in Continual Learners
through Adversarial Backdoor Attacks [2.830541450812474]
破滅的な忘れ物を避けるために,一般的な連続学習アルゴリズムであるElastic Weight Consolidation (EWC)の脆弱性について検討する。
知的敵は、EWCの防御を回避でき、訓練中に少量の誤報をモデルに導入することで、段階的かつ故意に忘れることを引き起こす。
MNISTデータセットの置換型と分割型の両方に"バックドア"攻撃サンプルを注入することで、モデルの制御を前提とする敵の能力を実証する。
論文 参考訳(メタデータ) (2020-02-17T18:13:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。