論文の概要: LLMalMorph: On The Feasibility of Generating Variant Malware using Large-Language-Models
- arxiv url: http://arxiv.org/abs/2507.09411v1
- Date: Sat, 12 Jul 2025 22:11:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:23.16147
- Title: LLMalMorph: On The Feasibility of Generating Variant Malware using Large-Language-Models
- Title(参考訳): LLMalMorph:大規模言語モデルを用いた可変マルウェア生成の可能性について
- Authors: Md Ajwad Akil, Adrian Shuai Li, Imtiaz Karim, Arun Iyengar, Ashish Kundu, Vinny Parla, Elisa Bertino,
- Abstract要約: 大規模言語モデル(LLM)は、ソフトウェア開発と自動コード生成を変革した。
本稿では,マルウェアのソースコードを改変して変種を生成するLLMの実現可能性について検討する。
LLMalMorphは意味的および構文的コード理解を利用する半自動フレームワークである。
- 参考スコア(独自算出の注目度): 10.069797952849797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have transformed software development and automated code generation. Motivated by these advancements, this paper explores the feasibility of LLMs in modifying malware source code to generate variants. We introduce LLMalMorph, a semi-automated framework that leverages semantical and syntactical code comprehension by LLMs to generate new malware variants. LLMalMorph extracts function-level information from the malware source code and employs custom-engineered prompts coupled with strategically defined code transformations to guide the LLM in generating variants without resource-intensive fine-tuning. To evaluate LLMalMorph, we collected 10 diverse Windows malware samples of varying types, complexity and functionality and generated 618 variants. Our thorough experiments demonstrate that it is possible to reduce the detection rates of antivirus engines of these malware variants to some extent while preserving malware functionalities. In addition, despite not optimizing against any Machine Learning (ML)-based malware detectors, several variants also achieved notable attack success rates against an ML-based malware classifier. We also discuss the limitations of current LLM capabilities in generating malware variants from source code and assess where this emerging technology stands in the broader context of malware variant generation.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ソフトウェア開発と自動コード生成を変革した。
これらの進歩に触発された本研究では,マルウェアのソースコードを改変して変種を生成するLLMの実現可能性について検討する。
我々は,LLMによる意味的および構文的コード理解を利用して,新たなマルウェアの変種を生成する半自動フレームワークであるLLMalMorphを紹介した。
LLMalMorphは、マルウェアのソースコードから関数レベル情報を抽出し、戦略的に定義されたコード変換と組み合わせたカスタムエンジニアリングのプロンプトを使用して、リソース集約的な微調整なしでLCMを生成する。
LLMalMorphを評価するために、さまざまなタイプ、複雑さ、機能性の10種類のWindowsマルウェアサンプルを収集し、618の変種を生成した。
本研究は,これらのマルウェア変異株の抗ウイルスエンジンの検出速度をある程度低減し,マルウェア機能を保ちながら検出できることを示すものである。
さらに、機械学習(ML)ベースのマルウェア検出装置を最適化していないにもかかわらず、いくつかの変種はMLベースのマルウェア分類器に対する攻撃成功率も達成した。
また、ソースコードからマルウェア変種を生成する際の現在のLLM機能の限界についても論じ、この新興技術がマルウェア変種生成のより広い文脈でどこにあるかを評価する。
関連論文リスト
- MGC: A Compiler Framework Exploiting Compositional Blindness in Aligned LLMs for Malware Generation [22.29476520010842]
大規模言語モデル(LLM)はソフトウェア開発を民主化し、複雑なアプリケーションをプログラミングする際の専門知識の障壁を減らした。
このアクセシビリティは、悪意のあるソフトウェア開発にまで拡張され、重大なセキュリティ上の懸念がもたらされる。
本稿では,モジュール分解とアライメント回避生成を通じて,この脆弱性を活用する新しいフレームワークであるMalware Generation Compiler(MGC)を紹介する。
論文 参考訳(メタデータ) (2025-07-02T18:00:49Z) - Large Language Model Unlearning for Source Code [65.42425213605114]
PRODは、LLMがコード生成能力を保ちながら、望ましくないコード内容を忘れることができる新しいアンラーニングアプローチである。
本評価は,既存の未学習アプローチと比較して,忘れ品質とモデルユーティリティのバランスが良好であることを示す。
論文 参考訳(メタデータ) (2025-06-20T16:27:59Z) - Type-Constrained Code Generation with Language Models [51.03439021895432]
本稿では,型システムを利用してコード生成を誘導する型制約デコード手法を提案する。
そこで本研究では,新しい接頭辞オートマトンと,在来型を探索する手法を開発し,LLM生成コードに適切な型付けを強制するための健全なアプローチを構築した。
提案手法は,コード合成,翻訳,修復作業において,コンパイルエラーを半分以上削減し,機能的正しさを著しく向上させる。
論文 参考訳(メタデータ) (2025-04-12T15:03:00Z) - On Benchmarking Code LLMs for Android Malware Analysis [13.932151152280689]
大規模言語モデル(LLM)は、様々なコードインテリジェンスタスクにおいて強力な機能を示している。
本稿では,Android マルウェア解析における Code LLM の有効性を評価するためのベンチマークフレームワーク CAMA を提案する。
論文 参考訳(メタデータ) (2025-04-01T12:05:49Z) - ObscuraCoder: Powering Efficient Code LM Pre-Training Via Obfuscation Grounding [60.37988508851391]
言語モデル(LM)は、コード記述ツールボックスのベースとなっている。
Code-LMの事前学習目標の変更を探求する研究は、データ効率の向上と構文とセマンティクスの相互接続性の向上を目的としており、顕著に不十分である。
本研究では,Code-LMが表面的な構文を超越し,事前学習したサンプルの効率を高めるために,難読化コードの基盤について検討する。
論文 参考訳(メタデータ) (2025-03-27T23:08:53Z) - Metamorphic Malware Evolution: The Potential and Peril of Large Language Models [1.0878040851638]
LLM/Transformerモデルに基づく自己テストプログラム変異エンジンを作成するためのフレームワークを提案する。
提案するフレームワークは、次世代の変成マルウェア検出エンジンをテストする上で不可欠なツールである。
論文 参考訳(メタデータ) (2024-10-31T12:53:56Z) - MEGen: Generative Backdoor in Large Language Models via Model Editing [56.46183024683885]
大規模言語モデル(LLM)は目覚ましい能力を示している。
その強力な生成能力は、様々なクエリや命令に基づいて柔軟な応答を可能にする。
本稿では,最小サイドエフェクトでNLPタスクをカスタマイズしたバックドアを構築することを目的とした,MEGenという編集ベースの生成バックドアを提案する。
論文 参考訳(メタデータ) (2024-08-20T10:44:29Z) - DALD: Improving Logits-based Detector without Logits from Black-box LLMs [56.234109491884126]
大規模言語モデル(LLM)はテキスト生成に革命をもたらし、人間の文章を忠実に模倣する出力を生成する。
我々は、ブラックボックステキスト検出における最先端性能を再定義する革新的なフレームワークであるDLD(Dis Distribution-Aligned LLMs Detection)を提案する。
DALDは、サロゲートモデルの分布を未知の目標LLMの分布と整合させ、高速モデルの反復に対する検出能力とレジリエンスを向上するように設計されている。
論文 参考訳(メタデータ) (2024-06-07T19:38:05Z) - Assessing LLMs in Malicious Code Deobfuscation of Real-world Malware Campaigns [7.776434991976473]
本稿では,大規模言語モデル(LLM)の難読化機能について検討する。
我々は,悪名高いEmotetマルウェアキャンペーンで使用されている現実の悪意のあるスクリプトを用いた4つのLSMを評価した。
以上の結果から,まだ完全には正確ではないものの,これらのペイロードを効率よく除去できるLCMが存在することが示唆された。
論文 参考訳(メタデータ) (2024-04-30T17:06:27Z) - CodeIP: A Grammar-Guided Multi-Bit Watermark for Large Language Models of Code [56.019447113206006]
大規模言語モデル(LLM)はコード生成において顕著な進歩を遂げた。
CodeIPは、新しいマルチビット透かし技術で、出所の詳細を保持するために追加情報を挿入する。
5つのプログラミング言語にまたがる実世界のデータセットで実施された実験は、CodeIPの有効性を実証している。
論文 参考訳(メタデータ) (2024-04-24T04:25:04Z) - Evading Malware Classifiers via Monte Carlo Mutant Feature Discovery [23.294653273180472]
悪意のあるアクターが代理モデルを訓練して、インスタンスが誤分類される原因となるバイナリ変異を発見する方法を示す。
そして、変異したマルウェアが、抗ウイルスAPIの代わりとなる被害者モデルに送られ、検出を回避できるかどうかをテストする。
論文 参考訳(メタデータ) (2021-06-15T03:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。