論文の概要: SoK: Potentials and Challenges of Large Language Models for Reverse Engineering
- arxiv url: http://arxiv.org/abs/2509.21821v1
- Date: Fri, 26 Sep 2025 03:26:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.156187
- Title: SoK: Potentials and Challenges of Large Language Models for Reverse Engineering
- Title(参考訳): SoK: リバースエンジニアリングのための大規模言語モデルの可能性と課題
- Authors: Xinyu Hu, Zhiwei Fu, Shaocong Xie, Steven H. H. Ding, Philippe Charland,
- Abstract要約: リバースエンジニアリング(RE)はソフトウェアセキュリティの中心であり、脆弱性発見やマルウェア分析などのタスクを可能にする。
ディープラーニングの初期の進歩は、特にマルウェア検出と脆弱性分類のために、REの一部を自動化するようになった。
最近では、急速に成長する研究機関が、同様の目的にLarge Language Models (LLMs)を適用している。
- 参考スコア(独自算出の注目度): 5.603029122508333
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reverse Engineering (RE) is central to software security, enabling tasks such as vulnerability discovery and malware analysis, but it remains labor-intensive and requires substantial expertise. Earlier advances in deep learning start to automate parts of RE, particularly for malware detection and vulnerability classification. More recently, a rapidly growing body of work has applied Large Language Models (LLMs) to similar purposes. Their role compared to prior machine learning remains unclear, since some efforts simply adapt existing pipelines with minimal change while others seek to exploit broader reasoning and generative abilities. These differences, combined with varied problem definitions, methods, and evaluation practices, limit comparability, reproducibility, and cumulative progress. This paper systematizes the field by reviewing 44 research papers, including peer-reviewed publications and preprints, and 18 additional open-source projects that apply LLMs in RE. We propose a taxonomy that organizes existing work by objective, target, method, evaluation strategy, and data scale. Our analysis identifies strengths and limitations, highlights reproducibility and evaluation gaps, and examines emerging risks. We conclude with open challenges and future research directions that aim to guide more coherent and security-relevant applications of LLMs in RE.
- Abstract(参考訳): リバースエンジニアリング(RE)はソフトウェアセキュリティの中心であり、脆弱性発見やマルウェア分析などのタスクを可能にする。
ディープラーニングの初期の進歩は、特にマルウェア検出と脆弱性分類のために、REの一部を自動化するようになった。
最近では、急速に成長する研究機関が、同様の目的にLarge Language Models (LLMs)を適用している。
既存のパイプラインを最小限の変更で適応する試みもある一方で、より広範な推論と生成能力を活用しようとする取り組みもある。
これらの違いは、様々な問題定義、方法、評価プラクティスと組み合わせて、可視性、再現性、累積的な進歩を制限します。
本稿では,44の学術論文をレビューし,その分野を体系化する。
目的,目標,方法,評価戦略,データスケールによって既存の作業を整理する分類法を提案する。
本分析では, 強度と限界を同定し, 再現性と評価のギャップを強調し, 新たなリスクについて検討する。
我々は,RE における LLM のより一貫性のあるセキュリティ関連応用を導くことを目的とした,オープンな課題と今後の研究方向性を結論づける。
関連論文リスト
- Large Language Models (LLMs) for Requirements Engineering (RE): A Systematic Literature Review [2.0061679654181392]
本研究は,出版動向,RE活動,促進戦略,評価方法など,諸次元の文献を分類する。
研究の多くは、欠陥検出や分類よりも、要件の適用と検証にLLMを使うことに重点を置いている。
問題追跡システム、規制、技術マニュアルなど、他のアーティファクトもますます検討されている。
論文 参考訳(メタデータ) (2025-09-14T21:45:01Z) - Previously on... Automating Code Review [4.096540146408279]
モダンコードレビュー(MCR)は、ソフトウェアエンジニアリングにおける標準的なプラクティスであるが、かなりの時間とリソース投資を必要とする。
最近の研究は、機械学習(ML)とディープラーニング(DL)を用いたコアレビュータスクの自動化をますます検討している。
本研究は,MCR自動化研究の総合的な分析を初めて行った。
論文 参考訳(メタデータ) (2025-08-25T13:12:48Z) - Does Machine Unlearning Truly Remove Model Knowledge? A Framework for Auditing Unlearning in LLMs [58.24692529185971]
本研究では,3つのベンチマークデータセット,6つのアンラーニングアルゴリズム,および5つのプロンプトベースの監査手法からなる,アンラーニング評価のための総合的な監査フレームワークを提案する。
異なるアンラーニング戦略の有効性とロバスト性を評価する。
論文 参考訳(メタデータ) (2025-05-29T09:19:07Z) - LLM-Safety Evaluations Lack Robustness [58.334290876531036]
我々は、大規模言語モデルに対する現在の安全アライメント研究は、多くのノイズ源によって妨げられていると論じる。
本研究では,将来の攻撃・防衛用紙の評価において,ノイズやバイアスを低減させる一連のガイドラインを提案する。
論文 参考訳(メタデータ) (2025-03-04T12:55:07Z) - Adversarial Alignment for LLMs Requires Simpler, Reproducible, and More Measurable Objectives [52.863024096759816]
相反する研究目的は、過去10年間に敵対的堅牢性研究の進展を妨げてきた。
我々は、対立するアライメントの有意義な進展には、リアライメントの目的が必要であると論じる。
論文 参考訳(メタデータ) (2025-02-17T15:28:40Z) - LLMs in Software Security: A Survey of Vulnerability Detection Techniques and Insights [12.424610893030353]
大規模言語モデル(LLM)は、ソフトウェア脆弱性検出のためのトランスフォーメーションツールとして登場している。
本稿では,脆弱性検出におけるLSMの詳細な調査を行う。
言語間の脆弱性検出、マルチモーダルデータ統合、リポジトリレベルの分析といった課題に対処する。
論文 参考訳(メタデータ) (2025-02-10T21:33:38Z) - Navigating the Risks: A Survey of Security, Privacy, and Ethics Threats in LLM-Based Agents [67.07177243654485]
この調査は、大規模言語モデルに基づくエージェントが直面するさまざまな脅威を収集、分析する。
LLMをベースとしたエージェントの6つの重要な特徴を概説する。
4つの代表エージェントをケーススタディとして選択し,実践的に直面する可能性のあるリスクを分析した。
論文 参考訳(メタデータ) (2024-11-14T15:40:04Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。