論文の概要: REx86: A Local Large Language Model for Assisting in x86 Assembly Reverse Engineering
- arxiv url: http://arxiv.org/abs/2510.20975v1
- Date: Thu, 23 Oct 2025 20:09:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.311923
- Title: REx86: A Local Large Language Model for Assisting in x86 Assembly Reverse Engineering
- Title(参考訳): REx86: x86アセンブリリバースエンジニアリングを支援するローカルな大規模言語モデル
- Authors: Darrin Lea, James Ghawaly, Golden Richard III, Aisha Ali-Gombe, Andrew Case,
- Abstract要約: 大規模言語モデル(LLM)は、自動理解とコメントを通じてリバースエンジニアリング(RE)効率を改善する可能性を提供する。
クラウドでホストされ、クローズドウェイトなモデルは、プライバシとセキュリティのリスクをもたらし、クローズドネットワークの施設では使用できない。
これらの設定でx86 REタスクを補助するためのパラメータ効率の良い微調整ローカルLLMを評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reverse engineering (RE) of x86 binaries is indispensable for malware and firmware analysis, but remains slow due to stripped metadata and adversarial obfuscation. Large Language Models (LLMs) offer potential for improving RE efficiency through automated comprehension and commenting, but cloud-hosted, closed-weight models pose privacy and security risks and cannot be used in closed-network facilities. We evaluate parameter-efficient fine-tuned local LLMs for assisting with x86 RE tasks in these settings. Eight open-weight models across the CodeLlama, Qwen2.5-Coder, and CodeGemma series are fine-tuned on a custom curated dataset of 5,981 x86 assembly examples. We evaluate them quantitatively and identify the fine-tuned Qwen2.5-Coder-7B as the top performer, which we name REx86. REx86 reduces test-set cross-entropy loss by 64.2% and improves semantic cosine similarity against ground truth by 20.3\% over its base model. In a limited user case study (n=43), REx86 significantly enhanced line-level code understanding (p = 0.031) and increased the correct-solve rate from 31% to 53% (p = 0.189), though the latter did not reach statistical significance. Qualitative analysis shows more accurate, concise comments with fewer hallucinations. REx86 delivers state-of-the-art assistance in x86 RE among local, open-weight LLMs. Our findings demonstrate the value of domain-specific fine-tuning, and highlight the need for more commented disassembly data to further enhance LLM performance in RE. REx86, its dataset, and LoRA adapters are publicly available at https://github.com/dlea8/REx86 and https://zenodo.org/records/15420461.
- Abstract(参考訳): x86バイナリのリバースエンジニアリング(RE)は、マルウェアやファームウェアの分析には不可欠であるが、削除されたメタデータと敵の難読化のため遅いままである。
大規模言語モデル(LLM)は、自動理解とコメントを通じて、RE効率を改善する可能性を提供するが、クラウドでホストされたクローズドウェイトモデルは、プライバシとセキュリティリスクをもたらし、クローズドネットワークの施設では使用できない。
これらの設定でx86 REタスクを補助するためのパラメータ効率の良い微調整ローカルLLMを評価した。
CodeLlama、Qwen2.5-Coder、CodeGemmaシリーズの8つのオープンウェイトモデルは、5,981 x86アセンブリのカスタムキュレートデータセットに基づいて微調整されている。
我々はそれらを定量的に評価し、細調整したQwen2.5-Coder-7Bをトップパフォーマーとし、REx86と命名した。
REx86はテストセットのクロスエントロピー損失を64.2%削減し、基底モデルよりも20.3\%向上した。
限られたユーザケーススタディ(n=43)において、Rex86はラインレベルのコード理解を著しく強化し(p = 0.031)、正解率を31%から53%に引き上げた(p = 0.189)。
質的な分析は、より正確で簡潔なコメントで、幻覚は少ない。
REx86は、ローカルでオープンウェイトなLLMの中でx86 REの最先端の補助を提供する。
筆者らは,ドメイン固有の微調整の価値を示し,REにおけるLCM性能をさらに向上させるために,よりコメント付き分解データの必要性を強調した。
REx86、データセット、LoRAアダプタはhttps://github.com/dlea8/REx86とhttps://zenodo.org/records/15420461で公開されている。
関連論文リスト
- FidelityGPT: Correcting Decompilation Distortions with Retrieval Augmented Generation [23.291593625603653]
逆コンパイルはマシンコードを可読形式に変換し、ソースコードなしで解析とデバッグを可能にする。
変数のリネームや構造的単純化といった既存の手法は部分的な改善を提供するが、堅牢な検出と修正は欠如している。
本稿では,意味的歪みを系統的に検出し,修正することにより,デコンパイルされたコード精度と可読性を向上するフレームワークであるFidelityGPTを提案する。
論文 参考訳(メタデータ) (2025-10-22T14:11:44Z) - NGPU-LM: GPU-Accelerated N-Gram Language Model for Context-Biasing in Greedy ASR Decoding [54.88765757043535]
この研究は、統計的なn-gram言語モデルのデータ構造を再考し、GPU最適化推論の高速かつ並列な操作を可能にする。
我々のアプローチは NGPU-LM と呼ばれ、7% 未満の計算オーバーヘッドを持つ全ての主要な ASR モデルに対して、カスタマイズ可能なgreedy decoding を導入している。
提案手法は,ビーム探索による顕著な遅延を回避しつつ,greedy と beam search の精度ギャップの50%以上を排除できる。
論文 参考訳(メタデータ) (2025-05-28T20:43:10Z) - LLMigrate: Transforming "Lazy" Large Language Models into Efficient Source Code Migrators [21.114491141763647]
RustでCコードを書き直すことでメモリの安全性が向上するが、32万行のLinuxカーネルのような大規模なマイグレーションは依然として困難である。
最近のLarge Language Model (LLM)アプローチは、より慣用的で安全なRustプログラムを生成するが、しばしば"遅延"を示す。
LLMベースのC-to-Rust翻訳ツールはモジュールを個別の関数に分割し、個別に翻訳し、再統合する。
論文 参考訳(メタデータ) (2025-03-31T07:09:07Z) - ASMA-Tune: Unlocking LLMs' Assembly Code Comprehension via Structural-Semantic Instruction Tuning [33.53059396922164]
アセンブリコード分析と理解は、リバースエンジニアリングのようなアプリケーションにおいて重要な役割を果たす。
従来のマスク付き言語モデリングアプローチは、自然言語の相互作用に明示的に焦点を合わせていない。
本稿では、エンドツーエンドな構造意味的命令チューニングフレームワークであるアセンブリ・チューニングについて述べる。
論文 参考訳(メタデータ) (2025-03-14T17:36:08Z) - xFinder: Large Language Models as Automated Evaluators for Reliable Evaluation [9.22621553566816]
本稿では,キー応答抽出モジュールの最適化により抽出精度が向上し,信頼性が向上することを示す。
大規模言語モデル(LLM)評価において,応答抽出とマッチングのための新しい評価器であるxFinderを提案する。
一般化テストと実世界の評価では、最小のxFinderモデルは5億のパラメータしか持たないが、平均抽出精度は93.42%である。
xFinderの最終判定精度は97.61%に達し、既存の評価フレームワークや審査モデルを上回っている。
論文 参考訳(メタデータ) (2024-05-20T08:30:13Z) - Full Parameter Fine-tuning for Large Language Models with Limited Resources [55.794732214059806]
大規模言語モデル(LLM)は自然言語処理(NLP)に革命をもたらしたが、トレーニングには大量のGPUリソースを必要としている。
我々は,メモリ使用量を削減するために,勾配とパラメータの更新を1ステップで融合する新しい計算,LOMO(LOw-Memory Optimization)を提案する。
論文 参考訳(メタデータ) (2023-06-16T11:37:15Z) - Revisiting Lightweight Compiler Provenance Recovery on ARM Binaries [10.38910167947036]
我々は、ARMバイナリのコンパイラ構成プロパティを効率よく正確に復元する浅層学習モデルにより、以前の作業を拡張した。
我々は、最先端のディープラーニングアプローチと同等の精度を99%以上達成し、トレーニング中に583回、推論時に3,826回達成した。
論文 参考訳(メタデータ) (2023-05-06T05:20:39Z) - DeepGEMM: Accelerated Ultra Low-Precision Inference on CPU Architectures
using Lookup Tables [49.965024476651706]
DeepGEMMはSIMDハードウェア上で超高精度畳み込みニューラルネットワークを実行するためのルックアップテーブルベースのアプローチである。
実装は、x86プラットフォーム上で、対応する8ビット整数カーネルを最大1.74倍の性能で上回る。
論文 参考訳(メタデータ) (2023-04-18T15:13:10Z) - LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale [80.86029795281922]
トランスにおけるフィードフォワードおよびアテンションプロジェクション層に対するInt8行列乗算法を開発した。
175Bパラメータ16/32ビットのチェックポイントをロードし、Int8に変換し、直ちに使用することができる。
論文 参考訳(メタデータ) (2022-08-15T17:08:50Z) - MCUNetV2: Memory-Efficient Patch-based Inference for Tiny Deep Learning [72.80896338009579]
メモリボトルネックは畳み込みニューラルネットワーク(CNN)の設計における不均衡なメモリ分布に起因する。
本稿では,ピークメモリを大幅に削減するパッチ・バイ・パッチ・推論スケジューリングを提案する。
ニューラルアーキテクチャサーチによるプロセスを自動化し、ニューラルアーキテクチャと推論スケジューリングを共同で最適化し、MCUNetV2に導いた。
論文 参考訳(メタデータ) (2021-10-28T17:58:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。