論文の概要: ReCopilot: Reverse Engineering Copilot in Binary Analysis
- arxiv url: http://arxiv.org/abs/2505.16366v1
- Date: Thu, 22 May 2025 08:21:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.142661
- Title: ReCopilot: Reverse Engineering Copilot in Binary Analysis
- Title(参考訳): ReCopilot: バイナリ分析におけるリバースエンジニアリングコパイロット
- Authors: Guoqiang Chen, Huiqi Sun, Daguang Liu, Zhiqi Wang, Qiang Wang, Bin Yin, Lu Liu, Lingyun Ying,
- Abstract要約: 汎用大規模言語モデル(LLM)は、ソースコードのプログラミング解析においてよく機能する。
本稿では、バイナリ解析タスク用に設計された専門家LLMであるReCopilotを紹介する。
ReCopilotは、綿密に構築されたデータセットを通じてバイナリコードの知識を統合する。
- 参考スコア(独自算出の注目度): 7.589188903601179
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Binary analysis plays a pivotal role in security domains such as malware detection and vulnerability discovery, yet it remains labor-intensive and heavily reliant on expert knowledge. General-purpose large language models (LLMs) perform well in programming analysis on source code, while binaryspecific LLMs are underexplored. In this work, we present ReCopilot, an expert LLM designed for binary analysis tasks. ReCopilot integrates binary code knowledge through a meticulously constructed dataset, encompassing continue pretraining (CPT), supervised fine-tuning (SFT), and direct preference optimization (DPO) stages. It leverages variable data flow and call graph to enhance context awareness and employs test-time scaling to improve reasoning capabilities. Evaluations on a comprehensive binary analysis benchmark demonstrate that ReCopilot achieves state-of-the-art performance in tasks such as function name recovery and variable type inference on the decompiled pseudo code, outperforming both existing tools and LLMs by 13%. Our findings highlight the effectiveness of domain-specific training and context enhancement, while also revealing challenges in building super long chain-of-thought. ReCopilot represents a significant step toward automating binary analysis with interpretable and scalable AI assistance in this domain.
- Abstract(参考訳): バイナリ分析は、マルウェア検出や脆弱性発見といったセキュリティ領域において重要な役割を果たすが、それでも労働集約的で専門家の知識に大きく依存している。
汎用大規模言語モデル(LLM)はソースコードのプログラミング解析においてよく機能し、バイナリ固有LLMは未探索である。
本稿では,バイナリ解析タスク用に設計された専門家LLMであるReCopilotを紹介する。
ReCopilotは、厳密に構築されたデータセットを通じてバイナリコード知識を統合し、継続事前トレーニング(CPT)、教師付き微調整(SFT)、直接優先最適化(DPO)ステージを含む。
可変データフローとコールグラフを活用してコンテキスト認識を強化し、推論機能を改善するためにテストタイムスケーリングを採用する。
包括的なバイナリ分析ベンチマークによる評価は、ReCopilotが関数名リカバリやデコンパイルされた擬似コードの変数型推論といったタスクにおける最先端のパフォーマンスを達成し、既存のツールとLLMの両方を13%上回ったことを示している。
本研究は、ドメイン固有のトレーニングとコンテキスト強化の有効性を強調しつつ、超長期チェーン構築における課題を明らかにした。
ReCopilotは、このドメインで解釈可能でスケーラブルなAIアシストを使用してバイナリ分析を自動化するための重要なステップである。
関連論文リスト
- TRAIL: Trace Reasoning and Agentic Issue Localization [5.025960714013197]
この研究は、エージェントワークフロートレースに対する堅牢でダイナミックな評価方法の必要性を明確に示している。
我々は,この分類法を用いて構築され,確立されたエージェント・ベンチマークに基づいて構築された148個の大型人名跡(TRAIL)について述べる。
生態学的妥当性を確保するため,単一エージェントシステムとマルチエージェントシステムの両方のトレースをキュレートする。
論文 参考訳(メタデータ) (2025-05-13T14:55:31Z) - BinMetric: A Comprehensive Binary Analysis Benchmark for Large Language Models [50.17907898478795]
本稿では,バイナリ解析タスクにおける大規模言語モデルの性能評価のためのベンチマークであるBinMetricを紹介する。
BinMetricは6つの実用的なバイナリ分析タスクにわたる20の実際のオープンソースプロジェクトから得られた1000の質問で構成されている。
本ベンチマークの実証実験では, 各種LLMのバイナリ解析能力について検討し, その強度と限界を明らかにした。
論文 参考訳(メタデータ) (2025-05-12T08:54:07Z) - An Analyst-Inspector Framework for Evaluating Reproducibility of LLMs in Data Science [5.064778712920176]
LLM(Large Language Models)は、コード生成によるデータサイエンスタスクの可能性を示している。
LLM生成データサイエンスを自動評価・実施する新しいアナリスト・インスペクタフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-23T01:15:50Z) - A Progressive Transformer for Unifying Binary Code Embedding and Knowledge Transfer [15.689556592544667]
本稿では,バイナリコード埋め込みのための新しいトランスフォーマーベースの手法であるProTSTを紹介する。
ProTSTは、独特の木のような構造に基づく階層的なトレーニングプロセスを採用している。
その結果, ProTSTは従来の2段階トレーニングに比べて14.8%改善した(F1, MRR, Recall@1)。
論文 参考訳(メタデータ) (2024-12-15T13:04:29Z) - Outside the Comfort Zone: Analysing LLM Capabilities in Software Vulnerability Detection [9.652886240532741]
本稿では,ソースコードの脆弱性検出における大規模言語モデルの機能について,徹底的に解析する。
我々は6つの汎用LCMに対して脆弱性検出を特別に訓練した6つのオープンソースモデルの性能を評価する。
論文 参考訳(メタデータ) (2024-08-29T10:00:57Z) - Towards Learning Abductive Reasoning using VSA Distributed Representations [56.31867341825068]
本稿では,文脈認識モデルを用いた帰納的ルール学習手法を提案する。
ARLCは、誘引的推論のための、新しくより広く適用可能な訓練目標を特徴としている。
プログラムされた知識の上に実例から漸進的に学習することで,ARLCのポストプログラミングトレーニングに対する堅牢性を示す。
論文 参考訳(メタデータ) (2024-06-27T12:05:55Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。