論文の概要: LLM as an Execution Estimator: Recovering Missing Dependency for Practical Time-travelling Debugging
- arxiv url: http://arxiv.org/abs/2508.18721v4
- Date: Fri, 29 Aug 2025 01:09:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 11:39:19.105569
- Title: LLM as an Execution Estimator: Recovering Missing Dependency for Practical Time-travelling Debugging
- Title(参考訳): 実行推定器としてのLCM:実践的時間トラベリングデバッグにおける欠落依存性の回復
- Authors: Yunrui Pei, Hongshu Wang, Wenjie Zhang, Yun Lin, Weiyu Kong, Jin song Dong,
- Abstract要約: 本稿では,部分的インスツルメンテーションのみを用いて,動的データ依存の計算を行うRecovSlicingを提案する。
Slicer4J, ND-Slicer, LLM Slicer, re-execution Slicer などの最先端スライダに対する RecovSlicing の評価を行った。
- 参考スコア(独自算出の注目度): 16.145767759835913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose RecovSlicing for computing dynamic data dependency in a single run, with only partial instrumentation. We explore the intuition that LLM can potentially infer program dynamics based on a partially recorded trace and relevant code as its context. Given (1) a partially recorded trace of a program $P$ and (2) the slicing criteria consisting of a query step $s$ and a query variable $v$ read by $s$, RecovSlicing computes the runtime definition of $v$ on the trace by estimating the miss-recorded execution of $P$. In this work, we allow the user to specify implicit query variable, for example, the implicit library variable used in list{\ttfamily .}get(i). Technically, built upon non-deterministic LLM, we address the challenges of (1) precise recovery of runtime variable value and structure from the recorded execution and (2) aligning the memory address of recovered variables and the recorded variables for definition analysis. We extensively evaluate RecovSlicing against the state-of-the-art slicers such as Slicer4J, ND-Slicer, LLM Slicer, and re-execution Slicer on a total number of 8300 data-dependencies over 3 slicing benchmarks. The results show that RecovSlicing can significantly outperform the baselines. The accuracy and recall, achieving 80.3%, 91.1%, and 98.3% on the three benchmarks, whereas the best baseline reaches 39.0%, 82.0%, and 59.9% (accuracy), and 53.4%, 79.1%, and 87.1% (recall), respectively. In addition, we integrate RecovSlicing in a dual-slicing based regression bug localizer, significantly improving its performance by locating 16% more regressions.
- Abstract(参考訳): 本研究では,部分的インスツルメンテーションのみを用いて,動的データ依存の計算を行うRecovSlicingを提案する。
LLMは、部分的に記録されたトレースと関連するコードに基づいて、プログラムの動的性を推論できる可能性があるという直感を、そのコンテキストとして検討する。
P$ と (2) の部分的に記録されたトレースと、クエリステップ $s$ とクエリ変数 $v$ read by $s$ からなるスライシング基準が与えられた場合、RecovSlicing は、エラー記録された実行を$P$ と推定することで、トレース上の $v$ のランタイム定義を計算します。
この作業では、ユーザが暗黙的なクエリ変数、例えばlist{\tt Familyで使用される暗黙的なライブラリ変数を指定できるようにします。
は、get(i)。
技術的には、非決定論的 LLM に基づいて、(1) 実行時の変数値と構造を正確に復元し、(2) 回復した変数と記録した変数のメモリアドレスを整列させて、定義解析を行うという課題に対処する。
Slicer4J, ND-Slicer, LLM Slicer, re-execution Slicerなどの最先端スライダに対するRecovSlicingを, 3つのスライシングベンチマークで合計8300データ依存度で評価した。
結果は、RecovSlicingがベースラインを大幅に上回っていることを示している。
精度とリコールは3つのベンチマークで80.3%、91.1%、98.3%に達し、最高のベースラインは39.0%、82.0%、59.9%(精度)、53.4%、79.1%、87.1%(リコール)に達した。
さらに、RecovSlicingをデュアルスライシングベースのレグレッションバグローカライザに統合し、レグレッションを16%増やすことでパフォーマンスを大幅に改善する。
関連論文リスト
- ReF Decompile: Relabeling and Function Call Enhanced Decompile [50.86228893636785]
逆コンパイルの目標は、コンパイルされた低レベルコード(アセンブリコードなど)を高レベルプログラミング言語に変換することである。
このタスクは、脆弱性識別、マルウェア分析、レガシーソフトウェアマイグレーションなど、さまざまなリバースエンジニアリングアプリケーションをサポートする。
論文 参考訳(メタデータ) (2025-02-17T12:38:57Z) - vTensor: Flexible Virtual Tensor Management for Efficient LLM Serving [53.972175896814505]
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
論文 参考訳(メタデータ) (2024-07-22T14:37:58Z) - Combined Static Analysis and Machine Learning Prediction for Application Debloating [2.010931857032585]
我々は静的保証付き予測デブロット(PDSG)の枠組みを開発する。
PDSGは、呼び出し元から発せられる動的な呼び出し元セットを予測し、誤った予測を解決するために、コールチェーンの静的不変量に基づいた軽量な監査を使用する。
SPEC CPU 2017において、同様の技術の中で最高のガジェット削減を実現し、平均して82.5%のガジェットを削減した。
論文 参考訳(メタデータ) (2024-03-30T00:14:17Z) - See, Say, and Segment: Teaching LMMs to Overcome False Premises [67.36381001664635]
この課題を解決するために,LMMのカスケードと共同学習手法を提案する。
得られたモデルでは、画像中に物体が存在するかどうかを検知し、その物体が存在しないかをユーザに「例」し、最終的に、対象物のマスクを出力することで「分類」を行う。
論文 参考訳(メタデータ) (2023-12-13T18:58:04Z) - LLVM Static Analysis for Program Characterization and Memory Reuse
Profile Estimation [0.0]
本稿ではLLVMに基づく確率的静的解析手法を提案する。
プログラムの特徴を正確に予測し、プログラムの再利用距離プロファイルを推定する。
その結果,LLVMベースの動的コード解析ツールであるByflと比較して,アプリケーションの特性を正確に予測できることがわかった。
論文 参考訳(メタデータ) (2023-11-20T23:05:06Z) - Scalable Neural Symbolic Regression using Control Variables [7.725394912527969]
本稿では,制御変数を利用したスケーラブルなシンボル回帰モデルであるScaleSRを提案し,精度とスケーラビリティを両立させる。
まず、ディープニューラルネットワーク(DNN)を用いて観測データからデータジェネレータを学習する。
実験結果から,複数の変数を持つ数学的表現の発見において,提案した ScaleSR は最先端のベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-06-07T18:30:25Z) - RMM: Reinforced Memory Management for Class-Incremental Learning [102.20140790771265]
クラスインクリメンタルラーニング(CIL)は、厳格な記憶予算の下で分類器を訓練する。
既存のメソッドは静的およびアドホックな戦略を使ってメモリ割り当てを行うが、これはしばしば準最適である。
本稿では,段階的な段階と異なるオブジェクトクラスに最適化された動的メモリ管理戦略を提案する。
論文 参考訳(メタデータ) (2023-01-14T00:07:47Z) - Integral Continual Learning Along the Tangent Vector Field of Tasks [112.02761912526734]
本稿では,特殊データセットからの情報を段階的に組み込んだ軽量連続学習手法を提案する。
ソースデータセットの0.4%まで小さく、小さな固定サイズのメモリバッファを保持しており、単純な再サンプリングによって更新される。
提案手法は,異なるデータセットに対して,様々なバッファサイズで高い性能を実現する。
論文 参考訳(メタデータ) (2022-11-23T16:49:26Z) - Lassoed Tree Boosting [53.56229983630983]
有界断面変動のカドラー関数の大きな非パラメトリック空間において,早期に停止するn-1/4$ L2の収束速度を持つ勾配向上木アルゴリズムを証明した。
我々の収束証明は、ネストしたドンスカー類の経験的損失最小化子による早期停止に関する新しい一般定理に基づいている。
論文 参考訳(メタデータ) (2022-05-22T00:34:41Z) - Construction de variables \`a l'aide de classifieurs comme aide \`a la
r\'egression [0.03807314298073299]
本稿では,初期入力ベクトルに含まれる情報を補完する変数の自動生成手法を提案する。
提案手法を5種類の回帰器を用いて検証し,33種類の回帰データセットで評価した。
論文 参考訳(メタデータ) (2021-12-03T10:33:57Z) - Truncated Linear Regression in High Dimensions [26.41623833920794]
truncated linear regression において、従属変数 $(A_i, y_i)_i$ は $y_i= A_irm T cdot x* + eta_i$ は固定された未知の興味ベクトルである。
目標は、$A_i$とノイズ分布に関するいくつかの好ましい条件の下で$x*$を回復することである。
我々は、$k$-sparse $n$-dimensional vectors $x*$ from $m$ truncated sample。
論文 参考訳(メタデータ) (2020-07-29T00:31:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。