論文の概要: Synergistic Directed Execution and LLM-Driven Analysis for Zero-Day AI-Generated Malware Detection
- arxiv url: http://arxiv.org/abs/2603.09044v1
- Date: Tue, 10 Mar 2026 00:25:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.912254
- Title: Synergistic Directed Execution and LLM-Driven Analysis for Zero-Day AI-Generated Malware Detection
- Title(参考訳): ゼロデイAI生成型マルウェア検出のための相乗的直接実行とLLM駆動解析
- Authors: George Edwards, Mahdi Eslamimehr,
- Abstract要約: 自動マルウェア生成のためのLLMのウェポン化は、従来の検出パラダイムに現実的な脅威をもたらす。
本稿では,エスココール実行とエンフディープ学習に基づく脆弱性分類を組み合わせた,新しいハイブリッド分析フレームワークを提案する。
2,500 LLM合成サンプルからなるベンチマークでは、従来のマルウェアでは98.7%、AIによる脅威では97.5%の精度が達成されている。
- 参考スコア(独自算出の注目度): 0.12891210250935145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The weaponization of LLMs for automated malware generation poses an existential threat to conventional detection paradigms. AI-generated malware exhibits polymorphic, metamorphic, and context-aware evasion capabilities that render signature-based and shallow heuristic defenses obsolete. This paper introduces a novel hybrid analysis framework that synergistically combines \emph{concolic execution} with \emph{LLM-augmented path prioritization} and \emph{deep-learning-based vulnerability classification} to detect zero-day AI-generated malware with provable guarantees. We formalize the detection problem within a first-order temporal logic over program execution traces, define a lattice-theoretic abstraction for path constraint spaces, and prove both the \emph{soundness} and \emph{relative completeness} of our detection algorithm, assuming classifier correctness. The framework introduces three novel algorithms: (i) an LLM-guided concolic exploration strategy that reduces the average number of explored paths by 73.2\% compared to depth-first search while maintaining equivalent malicious-path coverage; (ii) a transformer-based path-constraint classifier trained on symbolic execution traces; and (iii) a feedback loop that iteratively refines the LLM's prioritization policy using reinforcement learning from detection outcomes. We provide a comprehensive implementation built upon \texttt{angr} 9.2, \texttt{Z3} 4.12, Hugging Face Transformers 4.38, and PyTorch 2.2, with configuration details enabling reproducibility. Experimental evaluation on the EMBER, Malimg, SOREL-20M, and a novel AI-Gen-Malware benchmark comprising 2{,}500 LLM-synthesized samples demonstrates that achieves 98.7\% accuracy on conventional malware and 97.5\% accuracy on AI-generated threats, outperforming ClamAV, YARA, MalConv, and EMBER-GBDT baselines by margins of 8.4--52.2 percentage points on AI-generated samples.
- Abstract(参考訳): 自動マルウェア生成のためのLLMの兵器化は、従来の検出パラダイムに現実的な脅威をもたらす。
AI生成マルウェアは、シグネチャベースと浅いヒューリスティックディフェンスを時代遅れにする多形、変成、コンテキスト対応の回避能力を示す。
本稿では,<emph{LLM-augmented path Prioritization</emph{LLM-augmented path Prioritization</emph{deep-learning-based vulnerabilities classification</emph{deep-learning-based soil classification</emph{concolic execution</emph{LLM-augmented path Priorit></emph{LLM-augmented path Prioritization</emph{LLM-augmented path Prioritization></emph{deep-learning-based vulnerability></emph{deep-learning-based>という,ゼロデイAI生成マルウェアを証明可能な保証で検出するための新しいハイブリッド分析フレームワークを提案する。
プログラム実行トレース上の一階時間論理内の検出問題を形式化し、経路制約空間の格子論的抽象化を定義し、検出アルゴリズムの \emph{soundness} と \emph{relative completeness} の両方を、分類器の正しさを仮定して証明する。
このフレームワークには3つの新しいアルゴリズムが導入されている。
一 奥行き優先探索と同等の悪質パスカバレッジを維持しつつ、探索経路の平均回数を73.2 %削減するLLM誘導複合探索戦略
(ii)シンボリックな実行トレースに基づいて訓練されたトランスフォーマーベースのパス制約分類器
三 検出結果からの強化学習を用いて、LLMの優先順位付け方針を反復的に洗練するフィードバックループ。
本稿では,<texttt{angr} 9.2, \texttt{Z3} 4.12, Hugging Face Transformers 4.38, PyTorch 2.2上に構築された総合的な実装について述べる。
EMBER、Malimg、SOREL-20M、および2{,}500 LLM-synthesized sampleからなる新しいAI-Gen-Malwareベンチマークに対する実験的な評価は、従来のマルウェアに対して98.7%の精度とAI生成の脅威に対して97.5.%の精度を達成し、AI生成のサンプルに対して8.4~52.2のマージンでClamAV、YARA、MalConv、EMBER-GBDTのベースラインを上回ります。
関連論文リスト
- When Detectors Forget Forensics: Blocking Semantic Shortcuts for Generalizable AI-Generated Image Detection [48.75021863792367]
Vision Foundation Models (VFMs, emphe.g., CLIP) は、しばしば目に見えない生成パイプラインを使って生成された画像に一般化するのに苦労する。
textbfGeometric Semantic Decoupling (GSD)を提案する。
GSDはバッチワイズ統計から意味論的方向を推定し、幾何学的制約によってそれらを投影し、アーティファクト検出器は意味論的不変な法医学的証拠に依存するように強制する。
論文 参考訳(メタデータ) (2026-03-10T06:16:35Z) - Global Prior Meets Local Consistency: Dual-Memory Augmented Vision-Language-Action Model for Efficient Robotic Manipulation [95.89924101984566]
GPM(Global Prior Memory)とLCM(Local Consistency Memory)を備えたデュアルメモリVLAフレームワークOptimusVLAを紹介する。
GPMはガウスノイズを意味論的に類似した軌道から取得したタスクレベルの先行値に置き換える。
LCMは、時間的コヒーレンスと軌道の滑らかさを強制する学習された一貫性制約を注入する。
論文 参考訳(メタデータ) (2026-02-22T15:39:34Z) - SecureScan: An AI-Driven Multi-Layer Framework for Malware and Phishing Detection Using Logistic Regression and Threat Intelligence Integration [0.0]
この作業では、AI駆動の三層検出フレームワークであるSecureScanが紹介されている。
VirusTotal APIを通じて、ロジスティック回帰に基づく分類、分析、外部脅威インテリジェンスを統合する。
ベンチマークデータセットでは、SecureScanは93.1%の精度でバランスの取れた精度を実現している。
論文 参考訳(メタデータ) (2026-02-11T11:26:11Z) - ARTIS: Agentic Risk-Aware Test-Time Scaling via Iterative Simulation [72.78362530982109]
ARTIS(Agenic Risk-Aware Test-Time Scaling via Iterative Simulation)は、コミットメントから探索を分離するフレームワークである。
LLMをベースとした簡易シミュレータは, 希少かつ高インパクトな障害モードの捕捉に苦慮していることを示す。
本稿では,障害発生行動の忠実度を強調するリスク認識ツールシミュレータを提案する。
論文 参考訳(メタデータ) (2026-02-02T06:33:22Z) - Evaluating Large Language Models for Time Series Anomaly Detection in Aerospace Software [46.75681367373185]
時系列異常検出(TSAD)は、航空宇宙ソフトウェアシステムの安全性と信頼性を確保するために不可欠である。
大規模言語モデル(LLM)は、教師なしアプローチに代わる、有望なトレーニングなしの代替手段を提供する。
ATSADBenchは航空宇宙TSADの最初のベンチマークである。
論文 参考訳(メタデータ) (2026-01-18T15:07:16Z) - AI-Powered Algorithms for the Prevention and Detection of Computer Malware Infections [0.24919281650930605]
本研究では,人工知能(AI)に基づくコンテキスト認識型ハイブリッドマルウェア検出フレームワークを提案する。
この新しいアプローチは、97.3%の精度で優れたパフォーマンスを提供し、同じ分野で確立されたいくつかの機械学習(ML)やディープラーニング(DL)と比較して、1.5%の偽陽性率と最小限の検出遅延しか得られない。
論文 参考訳(メタデータ) (2026-01-09T02:14:34Z) - Trajectory Guard -- A Lightweight, Sequence-Aware Model for Real-Time Anomaly Detection in Agentic AI [0.0]
トラジェクトリガードはシームズ・リカレント・オートエンコーダであり、コントラスト学習によるタスク・トラジェクトリアライメントと、再構成によるシーケンシャル・アライメントを共同で学習するハイブリッド・ロス機能を備えている。
32ミリ秒のレイテンシで、当社のアプローチは LLM Judge のベースラインよりも17-27倍高速で動作し、実運用環境におけるリアルタイムの安全性検証を可能にします。
論文 参考訳(メタデータ) (2026-01-02T00:27:11Z) - RHINO: Guided Reasoning for Mapping Network Logs to Adversarial Tactics and Techniques with Large Language Models [9.065322387043546]
人間の推論を反映した3つの解釈可能なフェーズに大言語モデルを分解するフレームワークであるRHINOを紹介する。
RHINOは、構造的推論による出力信頼性を改善しながら、低レベルの観測と反対方向のセマンティックギャップを橋渡しする。
以上の結果から,RHINOは脅威解析の解釈可能性やスケーラビリティを著しく向上させ,LLMを運用上のセキュリティ設定にデプロイするための青写真を提供することが示された。
論文 参考訳(メタデータ) (2025-10-16T02:25:46Z) - Palisade -- Prompt Injection Detection Framework [0.9620910657090188]
大規模言語モデルは、悪意のあるインジェクション攻撃に対して脆弱である。
本稿では,新しいNLPを用いたインジェクション検出手法を提案する。
階層化された入力スクリーニングプロセスを通じて精度と最適化を強調する。
論文 参考訳(メタデータ) (2024-10-28T15:47:03Z) - Token-Level Adversarial Prompt Detection Based on Perplexity Measures
and Contextual Information [67.78183175605761]
大規模言語モデルは、敵の迅速な攻撃に影響を受けやすい。
この脆弱性は、LLMの堅牢性と信頼性に関する重要な懸念を浮き彫りにしている。
トークンレベルで敵のプロンプトを検出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T03:17:21Z) - SADet: Learning An Efficient and Accurate Pedestrian Detector [68.66857832440897]
本稿では,一段検出器の検出パイプラインに対する一連の最適化手法を提案する。
効率的な歩行者検出のための単発アンカーベース検出器(SADet)を形成する。
構造的には単純だが、VGA解像度の画像に対して最先端の結果と20ドルFPSのリアルタイム速度を示す。
論文 参考訳(メタデータ) (2020-07-26T12:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。