論文の概要: Data Flows in You: Benchmarking and Improving Static Data-flow Analysis on Binary Executables
- arxiv url: http://arxiv.org/abs/2506.00313v1
- Date: Fri, 30 May 2025 23:49:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 04:22:50.626616
- Title: Data Flows in You: Benchmarking and Improving Static Data-flow Analysis on Binary Executables
- Title(参考訳): データのフロー:バイナリ実行時の静的データフロー解析のベンチマークと改善
- Authors: Nicolaas Weideman, Sima Arasteh, Mukund Raghothaman, Jelena Mirkovic, Christophe Hauser,
- Abstract要約: 215,072マイクロベンチマークテストケースを含むベンチマークデータセットを導入し、277,072バイナリ実行ファイルにマッピングする。
我々は,Angr,Ghidra,Miasmの3種類の技術データフロー解析実装の評価を行った。
静的データフロー解析のための3つのモデル拡張を提案し、精度を大幅に向上し、ほぼ完全なリコール(0.99)を達成し、精度を0.13から0.32に向上させた。
- 参考スコア(独自算出の注目度): 8.364393895037487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data-flow analysis is a critical component of security research. Theoretically, accurate data-flow analysis in binary executables is an undecidable problem, due to complexities of binary code. Practically, many binary analysis engines offer some data-flow analysis capability, but we lack understanding of the accuracy of these analyses, and their limitations. We address this problem by introducing a labeled benchmark data set, including 215,072 microbenchmark test cases, mapping to 277,072 binary executables, created specifically to evaluate data-flow analysis implementations. Additionally, we augment our benchmark set with dynamically-discovered data flows from 6 real-world executables. Using our benchmark data set, we evaluate three state of the art data-flow analysis implementations, in angr, Ghidra and Miasm and discuss their very low accuracy and reasons behind it. We further propose three model extensions to static data-flow analysis that significantly improve accuracy, achieving almost perfect recall (0.99) and increasing precision from 0.13 to 0.32. Finally, we show that leveraging these model extensions in a vulnerability-discovery context leads to a tangible improvement in vulnerable instruction identification.
- Abstract(参考訳): データフロー分析はセキュリティ研究の重要な構成要素である。
理論的には、バイナリ実行ファイルにおける正確なデータフロー解析は、バイナリコードの複雑さのために決定不可能な問題である。
実際、多くのバイナリ分析エンジンはデータフロー分析機能を提供していますが、これらの分析の正確性や制限の理解は欠如しています。
本稿では,215,072マイクロベンチマークテストケースと277,072バイナリ実行ファイルへのマッピングを含むラベル付きベンチマークデータセットを導入することでこの問題に対処する。
さらに,6つの実世界の実行可能ファイルから動的に検出されたデータフローを用いて,ベンチマークセットを拡張した。
ベンチマークデータセットを用いて、Angr、Ghidra、Miasmの3つの最先端データフロー解析実装を評価し、その背景にある極めて低い精度と理由について論じる。
さらに静的データフロー解析への3つのモデル拡張を提案し、精度を大幅に向上させ、ほぼ完全なリコール(0.99)を実現し、精度を0.13から0.32に向上させた。
最後に、これらのモデル拡張を脆弱性発見コンテキストで活用することで、脆弱な命令識別の明確な改善がもたらされることを示す。
関連論文リスト
- FABLE: A Novel Data-Flow Analysis Benchmark on Procedural Text for Large Language Model Evaluation [5.866040886735852]
FABLEは、構造化された手続き型テキストを用いて、大規模言語モデルのデータフロー理解を評価するために設計されたベンチマークである。
推論中心モデル(DeepSeek-R1 8B)、汎用モデル(LLaMA 3.1 8B)、コード固有モデル(Granite Code 8B)の3種類を評価した。
その結果,推理モデルでは精度が向上するが,他のモデルに比べて20倍以上の推論が遅くなることがわかった。
論文 参考訳(メタデータ) (2025-05-30T06:32:34Z) - Scaling Inter-procedural Dataflow Analysis on the Cloud [19.562864760293955]
大規模クラスタ上で動作するBigDataflowという分散フレームワークを開発しました。
BigDataflowは、数百万行のコードのプログラムを数分で分析する。
論文 参考訳(メタデータ) (2024-12-17T06:18:56Z) - Smart Contract Vulnerability Detection based on Static Analysis and Multi-Objective Search [3.297959314391795]
本稿では,静的解析と多目的最適化アルゴリズムを用いて,スマートコントラクトの脆弱性を検出する手法を提案する。
永続性、スタックオーバーフローの呼び出し、整数オーバーフロー、タイムスタンプの依存関係の4つのタイプの脆弱性に焦点を当てています。
我々は,6,693のスマートコントラクトを含むEtherscanから収集したオープンソースデータセットを用いて,このアプローチを検証する。
論文 参考訳(メタデータ) (2024-09-30T23:28:17Z) - Training on the Benchmark Is Not All You Need [52.01920740114261]
本稿では,複数選択肢の内容に基づいた簡易かつ効果的なデータ漏洩検出手法を提案する。
本手法は,モデルトレーニングデータや重みを使用せずに,グレーボックス条件下で動作可能である。
4つのベンチマークデータセットから35個の主要なオープンソースLCMのデータ漏洩度を評価する。
論文 参考訳(メタデータ) (2024-09-03T11:09:44Z) - DACO: Towards Application-Driven and Comprehensive Data Analysis via Code Generation [83.30006900263744]
データ分析は、詳細な研究と決定的な洞察を生み出すための重要な分析プロセスである。
LLMのコード生成機能を活用した高品質な応答アノテーションの自動生成を提案する。
我々のDACO-RLアルゴリズムは、57.72%のケースにおいて、SFTモデルよりも有用な回答を生成するために、人間のアノテータによって評価される。
論文 参考訳(メタデータ) (2024-03-04T22:47:58Z) - Automating Dataset Updates Towards Reliable and Timely Evaluation of Large Language Models [81.27391252152199]
大規模言語モデル(LLM)は、さまざまな自然言語ベンチマークで素晴らしいパフォーマンスを実現している。
本稿では、データセットの自動更新と、その有効性に関する体系的な分析を提案する。
1) 類似したサンプルを生成するための戦略を模倣すること,2) 既存のサンプルをさらに拡張する戦略を拡張すること,である。
論文 参考訳(メタデータ) (2024-02-19T07:15:59Z) - LLMDFA: Analyzing Dataflow in Code with Large Language Models [8.92611389987991]
本稿では,コンパイル不要でカスタマイズ可能なデータフロー解析フレームワークLLMDFAを提案する。
問題をいくつかのサブタスクに分解し、一連の新しい戦略を導入する。
LLMDFAは平均87.10%の精度と80.77%のリコールを達成し、F1スコアを最大0.35に向上させた。
論文 参考訳(メタデータ) (2024-02-16T15:21:35Z) - StAnD: A Dataset of Linear Static Analysis Problems [0.0]
このデータセットは、静的解析問題の最大のデータセットである。
これはスパース線形系の最初の公開データセット(行列と現実的定数項の両方を含む)である。
論文 参考訳(メタデータ) (2022-01-14T09:31:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。