論文の概要: Adversarially Robust Assembly Language Model for Packed Executables Detection
- arxiv url: http://arxiv.org/abs/2509.15499v1
- Date: Fri, 19 Sep 2025 00:33:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:10.9484
- Title: Adversarially Robust Assembly Language Model for Packed Executables Detection
- Title(参考訳): パッケージ実行可能文字検出のための逆ロバストアセンブリ言語モデル
- Authors: Shijia Li, Jiang Ming, Lanqing Liu, Longwei Yang, Ni Zhang, Chunfu Jia,
- Abstract要約: Pack-ALMは、満載ファイルを検出するための新しいディープラーニングベースのアプローチである。
実語と擬態語の区別という言語概念に着想を得て,正統語と擬態語を区別する作業としてパッカー検出を再構成する。
先進的な産業用パッカー検出ツールと最先端のアセンブリ言語モデルに対して,Pack-ALMを評価した。
- 参考スコア(独自算出の注目度): 13.392747447728146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting packed executables is a critical component of large-scale malware analysis and antivirus engine workflows, as it identifies samples that warrant computationally intensive dynamic unpacking to reveal concealed malicious behavior. Traditionally, packer detection techniques have relied on empirical features, such as high entropy or specific binary patterns. However, these empirical, feature-based methods are increasingly vulnerable to evasion by adversarial samples or unknown packers (e.g., low-entropy packers). Furthermore, the dependence on expert-crafted features poses challenges in sustaining and evolving these methods over time. In this paper, we examine the limitations of existing packer detection methods and propose Pack-ALM, a novel deep-learning-based approach for detecting packed executables. Inspired by the linguistic concept of distinguishing between real and pseudo words, we reformulate packer detection as a task of differentiating between legitimate and "pseudo" instructions. To achieve this, we preprocess native data and packed data into "pseudo" instructions and design a pre-trained assembly language model that recognizes features indicative of packed data. We evaluate Pack-ALM against leading industrial packer detection tools and state-of-the-art assembly language models. Extensive experiments on over 37,000 samples demonstrate that Pack-ALM effectively identifies packed binaries, including samples created with adversarial or previously unseen packing techniques. Moreover, Pack-ALM outperforms traditional entropy-based methods and advanced assembly language models in both detection accuracy and adversarial robustness.
- Abstract(参考訳): 大量の実行ファイルを検出することは、大規模マルウェア分析とアンチウイルスエンジンのワークフローの重要な要素であり、計算的に集中的な動的アンパックを保証し、隠蔽された悪意のある振る舞いを明らかにするサンプルを特定する。
伝統的に、パッカー検出技術は、高いエントロピーや特定のバイナリパターンのような経験的特徴に依存している。
しかしながら、これらの経験的特徴に基づく手法は、敵のサンプルや未知のパッカー(例えば、低エントロピーパッカー)による回避にますます脆弱である。
さらに、専門家による機能への依存は、これらの手法の持続と進化に時間をかけて挑戦する。
本稿では,既存のパッカー検出手法の限界について検討し,包括可能ファイルを検出するための新しい深層学習手法であるPack-ALMを提案する。
実語と擬態語の区別という言語概念に着想を得て,正統語と擬態語を区別する作業としてパッカー検出を再構成する。
これを実現するために、我々はネイティブデータを前処理し、データを「擬似」命令に詰め込み、包括されたデータを表す特徴を認識する事前訓練されたアセンブリ言語モデルを設計する。
先進的な産業用パッカー検出ツールと最先端のアセンブリ言語モデルに対して,Pack-ALMを評価した。
37,000以上のサンプルに対する大規模な実験により、Pack-ALMは、逆行性または以前は見られなかったパッキング技術で作られたサンプルを含む、パッケージされたバイナリを効果的に識別することを示した。
さらに、Pack-ALMは従来のエントロピーに基づく手法や高度なアセンブリ言語モデルよりも、検出精度と対向ロバスト性の両方で優れている。
関連論文リスト
- Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [81.93945602120453]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - Sample-agnostic Adversarial Perturbation for Vision-Language Pre-training Models [7.350203999073509]
AIセキュリティに関する最近の研究は、画像やテキストの微妙で意図的に設計された摂動に対するビジョンランゲージ事前学習モデルの脆弱性を強調している。
私たちの知る限りでは、どんな画像にも当てはまる普遍的でサンプルに依存しない摂動の生成を探索する、マルチモーダルな決定境界による最初の研究である。
論文 参考訳(メタデータ) (2024-08-06T06:25:39Z) - Command-line Obfuscation Detection using Small Language Models [0.7373617024876725]
敵はしばしば検出を避けるためにコマンドライン難読化を使用する。
我々は、カスタムトレーニングされた小さなトランスフォーマー言語モデルを活用する、スケーラブルなNLPベースの検出手法を実装した。
確立したマルウェアのシグネチャに対するモデルの優位性を示すとともに,本モデルが検出した未確認の難読化サンプルを示す。
論文 参考訳(メタデータ) (2024-08-05T17:01:33Z) - Token-Level Adversarial Prompt Detection Based on Perplexity Measures
and Contextual Information [67.78183175605761]
大規模言語モデルは、敵の迅速な攻撃に影響を受けやすい。
この脆弱性は、LLMの堅牢性と信頼性に関する重要な懸念を浮き彫りにしている。
トークンレベルで敵のプロンプトを検出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T03:17:21Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - Quo Vadis: Hybrid Machine Learning Meta-Model based on Contextual and Behavioral Malware Representations [5.439020425819001]
複数のディープラーニングモデルを同時に利用するハイブリッド機械学習アーキテクチャを提案する。
我々は,現在の最先端モデルの能力よりも優れた検出率を報告した。
論文 参考訳(メタデータ) (2022-08-20T05:30:16Z) - Model-Agnostic Few-Shot Open-Set Recognition [36.97433312193586]
我々はFew-Shot Open-Set Recognition (FSOSR) 問題に取り組む。
既存のモデルにプラグイン可能なモデルに依存しない推論手法の開発に注力する。
オープン・セット・トランスダクティブ・インフォメーション・最大化手法OSTIMを提案する。
論文 参考訳(メタデータ) (2022-06-18T16:27:59Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。