論文の概要: Large Language Model (LLM) for Software Security: Code Analysis, Malware Analysis, Reverse Engineering
- arxiv url: http://arxiv.org/abs/2504.07137v1
- Date: Mon, 07 Apr 2025 22:32:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:22:00.124650
- Title: Large Language Model (LLM) for Software Security: Code Analysis, Malware Analysis, Reverse Engineering
- Title(参考訳): ソフトウェアセキュリティのための大規模言語モデル(LLM) - コード解析、マルウェア解析、リバースエンジニアリング
- Authors: Hamed Jelodar, Samita Bai, Parisa Hamedi, Hesamodin Mohammadian, Roozbeh Razavi-Far, Ali Ghorbani,
- Abstract要約: 大規模言語モデル(LLM)はサイバーセキュリティの強力なツールとして登場した。
LLMはマルウェア検出、生成、リアルタイム監視の高度な機能を提供する。
- 参考スコア(独自算出の注目度): 3.1195311942826303
- License:
- Abstract: Large Language Models (LLMs) have recently emerged as powerful tools in cybersecurity, offering advanced capabilities in malware detection, generation, and real-time monitoring. Numerous studies have explored their application in cybersecurity, demonstrating their effectiveness in identifying novel malware variants, analyzing malicious code structures, and enhancing automated threat analysis. Several transformer-based architectures and LLM-driven models have been proposed to improve malware analysis, leveraging semantic and structural insights to recognize malicious intent more accurately. This study presents a comprehensive review of LLM-based approaches in malware code analysis, summarizing recent advancements, trends, and methodologies. We examine notable scholarly works to map the research landscape, identify key challenges, and highlight emerging innovations in LLM-driven cybersecurity. Additionally, we emphasize the role of static analysis in malware detection, introduce notable datasets and specialized LLM models, and discuss essential datasets supporting automated malware research. This study serves as a valuable resource for researchers and cybersecurity professionals, offering insights into LLM-powered malware detection and defence strategies while outlining future directions for strengthening cybersecurity resilience.
- Abstract(参考訳): 大規模言語モデル(LLM)は先頃,マルウェアの検出や生成,リアルタイム監視といった高度な機能を提供する,サイバーセキュリティの強力なツールとして登場した。
多くの研究がサイバーセキュリティの応用を探求し、新しいマルウェアの変種を特定し、悪意のあるコード構造を分析し、自動脅威分析を強化する効果を実証している。
いくつかのトランスフォーマーベースのアーキテクチャとLSM駆動モデルが、悪意のある意図をより正確に認識するために意味的および構造的洞察を活用することで、マルウェア分析を改善するために提案されている。
本研究は, マルウェアコード解析におけるLCMに基づくアプローチを概観し, 最近の進歩, 動向, 方法論をまとめたものである。
我々は、研究の展望を地図化し、重要な課題を特定し、LLM主導のサイバーセキュリティにおける新たなイノベーションを浮き彫りにするために、著名な研究成果について検討する。
さらに、マルウェア検出における静的解析の役割を強調し、注目すべきデータセットや特殊なLLMモデルを導入し、自動マルウェア研究を支援する必要不可欠なデータセットについて議論する。
この研究は、研究者やサイバーセキュリティの専門家にとって貴重なリソースであり、LLMによるマルウェア検出と防御戦略に関する洞察を提供しながら、サイバーセキュリティのレジリエンスを強化するための今後の方向性を概説している。
関連論文リスト
- LLMs in Software Security: A Survey of Vulnerability Detection Techniques and Insights [12.424610893030353]
大規模言語モデル(LLM)は、ソフトウェア脆弱性検出のためのトランスフォーメーションツールとして登場している。
本稿では,脆弱性検出におけるLSMの詳細な調査を行う。
言語間の脆弱性検出、マルチモーダルデータ統合、リポジトリレベルの分析といった課題に対処する。
論文 参考訳(メタデータ) (2025-02-10T21:33:38Z) - Safety at Scale: A Comprehensive Survey of Large Model Safety [298.05093528230753]
我々は、敵攻撃、データ中毒、バックドア攻撃、ジェイルブレイクとプロンプトインジェクション攻撃、エネルギー遅延攻撃、データとモデル抽出攻撃、出現するエージェント固有の脅威を含む、大規模なモデルに対する安全脅威の包括的分類を提示する。
我々は、大規模なモデル安全性におけるオープンな課題を特定し、議論し、包括的な安全性評価、スケーラブルで効果的な防御機構、持続可能なデータプラクティスの必要性を強調します。
論文 参考訳(メタデータ) (2025-02-02T05:14:22Z) - Predicting Vulnerability to Malware Using Machine Learning Models: A Study on Microsoft Windows Machines [0.0]
本研究では機械学習(ML)技術を活用した効果的なマルウェア検出戦略の必要性に対処する。
本研究の目的は、個々のマシンの特定の状況に基づいて、マルウェアの脆弱性を正確に予測する高度なMLモデルを開発することである。
論文 参考訳(メタデータ) (2025-01-05T10:04:58Z) - Navigating the Risks: A Survey of Security, Privacy, and Ethics Threats in LLM-Based Agents [67.07177243654485]
この調査は、大規模言語モデルに基づくエージェントが直面するさまざまな脅威を収集、分析する。
LLMをベースとしたエージェントの6つの重要な特徴を概説する。
4つの代表エージェントをケーススタディとして選択し,実践的に直面する可能性のあるリスクを分析した。
論文 参考訳(メタデータ) (2024-11-14T15:40:04Z) - Mitigating Backdoor Threats to Large Language Models: Advancement and Challenges [46.032173498399885]
大規模言語モデル(LLM)は、Web検索、ヘルスケア、ソフトウェア開発など、さまざまな領域に大きな影響を与えている。
これらのモデルがスケールするにつれて、サイバーセキュリティのリスク、特にバックドア攻撃に対する脆弱性が高まる。
論文 参考訳(メタデータ) (2024-09-30T06:31:36Z) - Explainable Artificial Intelligence (XAI) for Malware Analysis: A Survey of Techniques, Applications, and Open Challenges [0.0]
説明可能なAI(XAI)は、強力な検出能力を保ちながら、モデルの解釈可能性を向上させることで、このギャップに対処する。
我々は,既存のXAIフレームワーク,マルウェア分類・検出への応用,およびマルウェア検出モデルをより解釈可能なものにする上での課題について検討する。
この調査は、サイバーセキュリティにおけるMLのパフォーマンスと説明可能性のギャップを埋めようとしている研究者や実践者にとって、貴重なリソースとなる。
論文 参考訳(メタデータ) (2024-09-09T08:19:33Z) - Generative AI in Cybersecurity: A Comprehensive Review of LLM Applications and Vulnerabilities [1.0974825157329373]
本稿では,ジェネレーティブAIとLarge Language Models(LLMs)によるサイバーセキュリティの将来を概観する。
ハードウェア設計のセキュリティ、侵入検知、ソフトウェアエンジニアリング、設計検証、サイバー脅威インテリジェンス、マルウェア検出、フィッシング検出など、さまざまな領域にわたるLCMアプリケーションを探索する。
GPT-4, GPT-3.5, Mixtral-8x7B, BERT, Falcon2, LLaMA などのモデルの発展に焦点を当て, LLM の進化とその現状について概説する。
論文 参考訳(メタデータ) (2024-05-21T13:02:27Z) - Large Language Models for Cyber Security: A Systematic Literature Review [14.924782327303765]
サイバーセキュリティ(LLM4Security)における大規模言語モデルの適用に関する文献の総合的なレビューを行う。
LLMは、脆弱性検出、マルウェア分析、ネットワーク侵入検出、フィッシング検出など、幅広いサイバーセキュリティタスクに応用されている。
第3に、細調整、転送学習、ドメイン固有の事前トレーニングなど、特定のサイバーセキュリティドメインにLLMを適用するための有望なテクニックをいくつか特定する。
論文 参考訳(メタデータ) (2024-05-08T02:09:17Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Holistic Adversarial Robustness of Deep Learning Models [91.34155889052786]
敵対的堅牢性は、安全性と信頼性を確保するために、機械学習モデルの最悪のケースパフォーマンスを研究する。
本稿では,深層学習モデルの対角的ロバスト性に関する研究課題の概要と研究手法の基礎原則について概説する。
論文 参考訳(メタデータ) (2022-02-15T05:30:27Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。