論文の概要: A Practical Adversarial Attack against Sequence-based Deep Learning Malware Classifiers
- arxiv url: http://arxiv.org/abs/2509.11836v1
- Date: Mon, 15 Sep 2025 12:22:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.268479
- Title: A Practical Adversarial Attack against Sequence-based Deep Learning Malware Classifiers
- Title(参考訳): シーケンスベースディープラーニングマルウェア分類器に対する現実的逆攻撃
- Authors: Kai Tan, Dongyang Zhan, Lin Ye, Hongli Zhang, Binxing Fang,
- Abstract要約: 本稿では,Deep Q-Networkとバックトラック検索戦略に基づく敵攻撃手法を提案する。
ソースコードに修正をマッピングする新しい変換アプローチを利用することで,動作ログのシーケンスを直接変更する必要がなくなる。
提案手法は実用的であり,修正したソフトウェアの機能を維持しつつ,敵のサンプルを生成することができる。
- 参考スコア(独自算出の注目度): 14.522205772331723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sequence-based deep learning models (e.g., RNNs), can detect malware by analyzing its behavioral sequences. Meanwhile, these models are susceptible to adversarial attacks. Attackers can create adversarial samples that alter the sequence characteristics of behavior sequences to deceive malware classifiers. The existing methods for generating adversarial samples typically involve deleting or replacing crucial behaviors in the original data sequences, or inserting benign behaviors that may violate the behavior constraints. However, these methods that directly manipulate sequences make adversarial samples difficult to implement or apply in practice. In this paper, we propose an adversarial attack approach based on Deep Q-Network and a heuristic backtracking search strategy, which can generate perturbation sequences that satisfy practical conditions for successful attacks. Subsequently, we utilize a novel transformation approach that maps modifications back to the source code, thereby avoiding the need to directly modify the behavior log sequences. We conduct an evaluation of our approach, and the results confirm its effectiveness in generating adversarial samples from real-world malware behavior sequences, which have a high success rate in evading anomaly detection models. Furthermore, our approach is practical and can generate adversarial samples while maintaining the functionality of the modified software.
- Abstract(参考訳): シークエンスに基づくディープラーニングモデル(例えばRNN)は、その行動シーケンスを分析してマルウェアを検出することができる。
一方、これらのモデルは敵攻撃の影響を受けやすい。
攻撃者は、行動シーケンスのシーケンス特性を不正なマルウェア分類器に変更する敵のサンプルを作成することができる。
敵のサンプルを生成する既存の方法は、通常、元のデータシーケンスで重要な振る舞いを削除または置き換えたり、振る舞いの制約に反する良質な振る舞いを挿入する。
しかし、シーケンスを直接操作するこれらの手法は、実際に実装や適用を困難にしている。
本稿では,Deep Q-Networkに基づく敵攻撃手法と,攻撃を成功させるための実用的な条件を満たす摂動シーケンスを生成するヒューリスティックなバックトラック探索戦略を提案する。
その後、ソースコードに修正をマッピングする新しい変換手法を用いて、振舞いログのシーケンスを直接変更する必要がなくなる。
本研究では,本手法の評価を行い,現実のマルウェアの行動列から敵のサンプルを生成することの有効性を確認し,異常検出モデルを回避することに成功率の高い結果を得た。
さらに,本手法は実用的であり,修正したソフトウェアの機能を維持しつつ,敵対的なサンプルを生成することができる。
関連論文リスト
- OMNISEC: LLM-Driven Provenance-based Intrusion Detection via Retrieval-Augmented Behavior Prompting [4.71781133841068]
Provenance-based Intrusion Detection Systems (PIDS) はエンドポイントの脅威分析に広く利用されている。
攻撃手法の進化により、ルールは攻撃者の全ての特性を動的にモデル化することはできない。
異常検出システムは、通常の行動の変化と実際の攻撃行動とを区別できないため、重大な偽陽性問題に直面している。
論文 参考訳(メタデータ) (2025-03-05T02:08:12Z) - Robust Synthetic Data-Driven Detection of Living-Off-the-Land Reverse Shells [14.710331873072146]
LOTL(Living-off-the-land)技術は、セキュリティ運用において大きな課題となる。
セキュリティ情報およびイベント管理(SIEM)ソリューションとして,サイバー防衛システムのための堅牢な拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-28T13:49:23Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Towards a Practical Defense against Adversarial Attacks on Deep
Learning-based Malware Detectors via Randomized Smoothing [3.736916304884177]
本稿では,ランダムな平滑化に触発された敵のマルウェアに対する現実的な防御法を提案する。
本研究では,入力のランダム化にガウスノイズやラプラスノイズを使う代わりに,ランダム化アブレーションに基づく平滑化方式を提案する。
BODMASデータセットに対する様々な最先端の回避攻撃に対するアブレーションモデルの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2023-08-17T10:30:25Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z) - Gradient-based adversarial attacks on categorical sequence models via
traversing an embedded world [11.711134497239332]
我々は、分類列を持つディープラーニングモデルに対する敵対的攻撃について検討する。
2つのブラックボックス攻撃を用いてこれらの課題に対処する。
金銭取引、医療詐欺、NLPデータセットの結果は、提案手法が合理的な逆数列を生成することを示唆している。
論文 参考訳(メタデータ) (2020-03-09T14:31:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。