論文の概要: RoMA: Robust Malware Attribution via Byte-level Adversarial Training with Global Perturbations and Adversarial Consistency Regularization
- arxiv url: http://arxiv.org/abs/2502.07492v2
- Date: Sat, 15 Feb 2025 15:36:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:13:28.426214
- Title: RoMA: Robust Malware Attribution via Byte-level Adversarial Training with Global Perturbations and Adversarial Consistency Regularization
- Title(参考訳): RoMA:大域摂動によるバイトレベルの対人訓練と対人一貫性規則化によるロバストなマルウェア帰属
- Authors: Yuxia Sun, Huihong Chen, Jingcai Guo, Aoxiang Sun, Zhetao Li, Haolin Liu,
- Abstract要約: APTの敵はしばしばその正体を隠蔽し、本質的に敵意を表わす。
既存の機械学習ベースの属性モデルは、効果はあるものの、敵の攻撃に対して非常に脆弱である。
我々は,グローバルな摂動を統合して,拡張された対向サンプルを生成する,新しい一段階対向訓練手法であるRoMAを提案する。
- 参考スコア(独自算出の注目度): 17.387354788421742
- License:
- Abstract: Attributing APT (Advanced Persistent Threat) malware to their respective groups is crucial for threat intelligence and cybersecurity. However, APT adversaries often conceal their identities, rendering attribution inherently adversarial. Existing machine learning-based attribution models, while effective, remain highly vulnerable to adversarial attacks. For example, the state-of-the-art byte-level model MalConv sees its accuracy drop from over 90% to below 2% under PGD (projected gradient descent) attacks. Existing gradient-based adversarial training techniques for malware detection or image processing were applied to malware attribution in this study, revealing that both robustness and training efficiency require significant improvement. To address this, we propose RoMA, a novel single-step adversarial training approach that integrates global perturbations to generate enhanced adversarial samples and employs adversarial consistency regularization to improve representation quality and resilience. A novel APT malware dataset named AMG18, with diverse samples and realistic class imbalances, is introduced for evaluation. Extensive experiments show that RoMA significantly outperforms seven competing methods in both adversarial robustness (e.g., achieving over 80% robust accuracy-more than twice that of the next-best method under PGD attacks) and training efficiency (e.g., more than twice as fast as the second-best method in terms of accuracy), while maintaining superior standard accuracy in non-adversarial scenarios.
- Abstract(参考訳): APT(Advanced Persistent Threat)マルウェアをそれぞれのグループにアトリビュートすることは、脅威情報とサイバーセキュリティにとって不可欠である。
しかし、APTの敵はしばしばその正体を隠蔽し、本来は敵意を表わす。
既存の機械学習ベースの属性モデルは、効果はあるものの、敵の攻撃に対して非常に脆弱である。
例えば、最先端のバイトレベルモデルであるMalConvでは、PGD攻撃下での精度が90%以上から2%以下に低下している。
本研究では,マルウェア検出や画像処理のための既存の勾配に基づく逆トレーニング手法をマルウェア属性に適用し,ロバスト性およびトレーニング効率の両面において大幅な改善が必要であることを明らかにした。
そこで本稿では,グローバルな摂動を統合して拡張された対人サンプルを生成し,表現品質とレジリエンスを向上させるために対人整合正則化を採用する,新しい一段階対人トレーニング手法であるRoMAを提案する。
AMG18と呼ばれる新しいAPTマルウェアデータセットは、多様なサンプルと現実的なクラス不均衡を持ち、評価のために導入された。
大規模実験の結果、RoMAは敵の強靭性(例えば、PGD攻撃による次の最良メソッドの2倍以上)と訓練効率(例えば、第2最良メソッドの2倍以上の速さ)において7つの競合する手法よりも優れており、非敵のシナリオでは優れた標準精度を維持していることがわかった。
関連論文リスト
- A Hybrid Defense Strategy for Boosting Adversarial Robustness in Vision-Language Models [9.304845676825584]
本稿では,複数の攻撃戦略と高度な機械学習技術を統合した,新たな敵訓練フレームワークを提案する。
CIFAR-10 や CIFAR-100 などの実世界のデータセットで行った実験により,提案手法がモデルロバスト性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-10-18T23:47:46Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Perturbation-Invariant Adversarial Training for Neural Ranking Models:
Improving the Effectiveness-Robustness Trade-Off [107.35833747750446]
正統な文書に不可避な摂動を加えることで 敵の例を作れます
この脆弱性は信頼性に関する重大な懸念を生じさせ、NRMの展開を妨げている。
本研究では,NRMにおける有効・損耗トレードオフに関する理論的保証を確立する。
論文 参考訳(メタデータ) (2023-12-16T05:38:39Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - DSRM: Boost Textual Adversarial Training with Distribution Shift Risk
Minimization [36.10642858867033]
敵対的訓練は、ディープ言語モデルの堅牢性を改善するための最も優れた方法の1つである。
クリーンなデータのみを用いて対人訓練を行う新しい効果的な方法を提案する。
本手法では, 学習にゼロ対向検定が必要であり, 現行の対向検定法と比較して, 時間消費を最大70%削減する。
論文 参考訳(メタデータ) (2023-06-27T02:46:08Z) - MIXPGD: Hybrid Adversarial Training for Speech Recognition Systems [18.01556863687433]
ASRシステムのモデルの堅牢性を向上させるために,混合PGD逆行訓練法を提案する。
標準的な対人訓練では、教師なしまたは教師なしの手法を利用して、敵のサンプルを生成する。
我々は,モデルロバスト性向上に役立つ新しい対向サンプルを生成するために,教師付きアプローチと教師なしアプローチの両機能を融合する。
論文 参考訳(メタデータ) (2023-03-10T07:52:28Z) - Improving Adversarial Robustness with Self-Paced Hard-Class Pair
Reweighting [5.084323778393556]
標的外攻撃による敵の訓練は 最も認知されている方法の1つです
自然に不均衡なクラス間のセマンティックな類似性により、これらのハードクラスのペアが互いに仮想的なターゲットになる。
モデル最適化における重み付きハードクラスペアの損失について提案し、ハードクラスからの識別的特徴の学習を促す。
論文 参考訳(メタデータ) (2022-10-26T22:51:36Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。