論文の概要: "Digital Camouflage": The LLVM Challenge in LLM-Based Malware Detection
- arxiv url: http://arxiv.org/abs/2509.16671v1
- Date: Sat, 20 Sep 2025 12:47:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 15:05:41.897301
- Title: "Digital Camouflage": The LLVM Challenge in LLM-Based Malware Detection
- Title(参考訳): デジタルカモフラージュ」 : LLMによるマルウェア検出におけるLLVMチャレンジ
- Authors: Ekin Böke, Simon Torka,
- Abstract要約: 大規模言語モデル(LLM)がマルウェア検出のための有望なツールとして登場した。
しかし、逆コンパイラレベルの難読化の下での信頼性はまだ発見されていない。
本研究は,コンパイラレベルの難読化技術に対する3つの最先端LCMのロバスト性を実証的に評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have emerged as promising tools for malware detection by analyzing code semantics, identifying vulnerabilities, and adapting to evolving threats. However, their reliability under adversarial compiler-level obfuscation is yet to be discovered. In this study, we empirically evaluate the robustness of three state-of-the-art LLMs: ChatGPT-4o, Gemini Flash 2.5, and Claude Sonnet 4 against compiler-level obfuscation techniques implemented via the LLVM infrastructure. These include control flow flattening, bogus control flow injection, instruction substitution, and split basic blocks, which are widely used to evade detection while preserving malicious behavior. We perform a structured evaluation on 40~C functions (20 vulnerable, 20 secure) sourced from the Devign dataset and obfuscated using LLVM passes. Our results show that these models often fail to correctly classify obfuscated code, with precision, recall, and F1-score dropping significantly after transformation. This reveals a critical limitation: LLMs, despite their language understanding capabilities, can be easily misled by compiler-based obfuscation strategies. To promote reproducibility, we release all evaluation scripts, prompts, and obfuscated code samples in a public repository. We also discuss the implications of these findings for adversarial threat modeling, and outline future directions such as software watermarking, compiler-aware defenses, and obfuscation-resilient model design.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コードセマンティクスを分析し、脆弱性を特定し、進化する脅威に適応することで、マルウェア検出のための有望なツールとして登場した。
しかし、逆コンパイラレベルの難読化の下での信頼性はまだ発見されていない。
本研究では,LLVM インフラストラクチャを介して実装されたコンパイラレベルの難読化技術に対して,ChatGPT-4o,Gemini Flash 2.5,Claude Sonnet 4 の3つの最先端 LLM のロバスト性を実証的に評価する。
その中には、制御フローのフラット化、ボグス制御フローインジェクション、命令置換、そして悪意のある振る舞いを保ちながら検出を避けるために広く使用される基本的なブロックが含まれる。
LLVMパスを使用して,Devignデータセットから得られた40~C関数(脆弱性20,セキュア20)の構造化評価を行う。
これらのモデルでは, 精度, リコール, F1スコアが変換後に著しく低下し, 難読化コードの正しい分類に失敗することが多い。
LLMはその言語理解能力にもかかわらず、コンパイラベースの難読化戦略によって容易に誤解される可能性がある。
再現性を促進するため、パブリックリポジトリですべての評価スクリプト、プロンプト、難読化されたコードサンプルを公開します。
また、これらの知見が敵対的脅威モデリングに与える影響についても論じ、ソフトウェア透かし、コンパイラ対応ディフェンス、難読化耐性モデル設計などの今後の方向性を概説する。
関連論文リスト
- Decompiling Smart Contracts with a Large Language Model [51.49197239479266]
Etherscanの78,047,845のスマートコントラクトがデプロイされているにも関わらず(2025年5月26日現在)、わずか767,520 (1%)がオープンソースである。
この不透明さは、オンチェーンスマートコントラクトバイトコードの自動意味解析を必要とする。
バイトコードを可読でセマンティックに忠実なSolidityコードに変換する,先駆的な逆コンパイルパイプラインを導入する。
論文 参考訳(メタデータ) (2025-06-24T13:42:59Z) - Deconstructing Obfuscation: A four-dimensional framework for evaluating Large Language Models assembly code deobfuscation capabilities [0.49157446832511503]
大規模言語モデル (LLM) はソフトウェア工学において有望であるが、バイナリ解析の有効性は未定である。
組立コードの難読化のための商用LCMの総合評価を行った。
論文 参考訳(メタデータ) (2025-05-26T12:16:44Z) - ObscuraCoder: Powering Efficient Code LM Pre-Training Via Obfuscation Grounding [60.37988508851391]
言語モデル(LM)は、コード記述ツールボックスのベースとなっている。
Code-LMの事前学習目標の変更を探求する研究は、データ効率の向上と構文とセマンティクスの相互接続性の向上を目的としており、顕著に不十分である。
本研究では,Code-LMが表面的な構文を超越し,事前学習したサンプルの効率を高めるために,難読化コードの基盤について検討する。
論文 参考訳(メタデータ) (2025-03-27T23:08:53Z) - ReF Decompile: Relabeling and Function Call Enhanced Decompile [50.86228893636785]
逆コンパイルの目標は、コンパイルされた低レベルコード(アセンブリコードなど)を高レベルプログラミング言語に変換することである。
このタスクは、脆弱性識別、マルウェア分析、レガシーソフトウェアマイグレーションなど、さまざまなリバースエンジニアリングアプリケーションをサポートする。
論文 参考訳(メタデータ) (2025-02-17T12:38:57Z) - Can LLMs Obfuscate Code? A Systematic Analysis of Large Language Models into Assembly Code Obfuscation [36.12009987721901]
マルウェアの作者は、マルウェアを検出しにくくするために、しばしばコードの難読化を用いる。
難読化されたコードを生成する既存のツールは、しばしば元のソースコードにアクセスする必要がある。
大規模言語モデルは、新しい難読化アセンブリコードを生成することができるか?
もしそうなら、これはアンチウイルスエンジンにリスクをもたらし、攻撃者が新しい難読化パターンを作るための柔軟性を高める可能性がある。
論文 参考訳(メタデータ) (2024-12-20T18:31:24Z) - M2CVD: Enhancing Vulnerability Semantic through Multi-Model Collaboration for Code Vulnerability Detection [52.4455893010468]
大規模言語モデル(LLM)は、コード理解において強力な能力を持つが、微調整コストとセマンティックアライメントの問題により、プロジェクト固有の最適化が制限される。
CodeBERTのようなコードモデルは微調整が容易であるが、複雑なコード言語から脆弱性のセマンティクスを学ぶことはしばしば困難である。
本稿では,M2CVD(Multi-Model Collaborative Vulnerability Detection)手法を提案する。
論文 参考訳(メタデータ) (2024-06-10T00:05:49Z) - FoC: Figure out the Cryptographic Functions in Stripped Binaries with LLMs [51.898805184427545]
削除されたバイナリの暗号関数を抽出するFoCと呼ばれる新しいフレームワークを提案する。
まず、自然言語における暗号関数のセマンティクスを要約するために、バイナリ大言語モデル(FoC-BinLLM)を構築した。
次に、FoC-BinLLM上にバイナリコード類似モデル(FoC-Sim)を構築し、変更に敏感な表現を作成し、データベース内の未知の暗号関数の類似実装を検索する。
論文 参考訳(メタデータ) (2024-03-27T09:45:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。