論文の概要: LLM as an Execution Estimator: Recovering Missing Dependency for Practical Time-travelling Debugging
- arxiv url: http://arxiv.org/abs/2508.18721v1
- Date: Tue, 26 Aug 2025 06:38:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.704387
- Title: LLM as an Execution Estimator: Recovering Missing Dependency for Practical Time-travelling Debugging
- Title(参考訳): 実行推定器としてのLCM:実践的時間トラベリングデバッグにおける欠落依存性の回復
- Authors: Yunrui Pei, Hongshu Wang, Wenjie Zhang, Yun Lin, Weiyu Kong, Jin song Dong,
- Abstract要約: 本稿では,部分的なインスツルメンテーションを伴う単一実行時の動的データ依存性を計算するRecovSlicingを提案する。
我々はRecovSlicingを3つのスライシングベンチマークで8,300のデータ依存関係で評価した。
- 参考スコア(独自算出の注目度): 16.145767759835913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic data dependency, answering "why a variable has this value?", is critical for debugging. Given a program step `s` reading a variable `v`, finding the dynamic definition of `v` is challenging. Traditional methods require either (1) exhaustive instrumentation of all possible definitions of `v` in one run or (2) replicating the run to re-examine reads/writes - both costly. If `v` is defined in a library, instrumentation becomes expensive; for non-deterministic programs, replication is infeasible. We propose RecovSlicing, which computes dynamic data dependency in a single run with partial instrumentation. We leverage LLMs to infer program behavior from a partially recorded trace and code context. Given a trace and a slicing criterion (step `s` and variable `v`), RecovSlicing estimates the runtime definition of `v` by recovering the missing execution.It also supports implicit variables, such as those in `list.get(i)`. Technically, RecovSlicing tackles: (1) recovering runtime values and structures, and (2) aligning recovered variables with recorded memory to analyze definitions. We evaluate RecovSlicing on 8,300 data dependencies across three slicing benchmarks, comparing it with Slicer4J, ND-Slicer, LLM Slicer, and re-execution Slicer. RecovSlicing achieves accuracy of 80.3%, 91.1%, and 98.3%, outperforming the best baseline (39.0%, 82.0%, 59.9%), and also leads in recall (91.1%, 91.1%, 98.3% vs. 53.4%, 79.1%, 87.1%). Integrated into a regression bug localizer, it enables finding 16% more regressions.
- Abstract(参考訳): なぜ変数がこの値を持っているのか?
プログラムステップ `s` が変数 `v` を読み取ると、 `v` の動的定義を見つけることは難しい。
従来のメソッドでは、1回の実行で `v` の可能なすべての定義を徹底的に計測するか、2回の読み込み/書き込みを再検査するために実行を複製する必要がある。
v` がライブラリで定義されている場合、インスツルメンテーションは高価になる。
本稿では,部分的なインスツルメンテーションを伴う単一実行時の動的データ依存性を計算するRecovSlicingを提案する。
LLMを利用して、部分的に記録されたトレースとコードコンテキストからプログラムの振る舞いを推測する。
トレースとスライシングの基準(ステップ `s` と変数 `v`)が与えられた場合、RecovSlicingは、不足した実行を復元することで `v` のランタイム定義を推定する。
技術的に、RecovSlicingは(1)実行時値と構造を復元し、(2)回復した変数を記録メモリと整列させて定義を分析する。
Slicer4J, ND-Slicer, LLM Slicer, re-execution Slicer と比較し, 3つのスライシングベンチマークの8300データ依存関係に対するRecovSlicingを評価した。
RecovSlicingは80.3%、91.1%、98.3%の精度を達成し、最高のベースライン(39.0%、82.0%、59.9%)を上回っ、リコール率(91.1%、91.1%、98.3%対53.4%、79.1%、87.1%)も上回っている。
回帰バグローカライザに統合され、さらに16%のレグレッションを見つけることができる。
関連論文リスト
- ReF Decompile: Relabeling and Function Call Enhanced Decompile [50.86228893636785]
逆コンパイルの目標は、コンパイルされた低レベルコード(アセンブリコードなど)を高レベルプログラミング言語に変換することである。
このタスクは、脆弱性識別、マルウェア分析、レガシーソフトウェアマイグレーションなど、さまざまなリバースエンジニアリングアプリケーションをサポートする。
論文 参考訳(メタデータ) (2025-02-17T12:38:57Z) - vTensor: Flexible Virtual Tensor Management for Efficient LLM Serving [53.972175896814505]
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
論文 参考訳(メタデータ) (2024-07-22T14:37:58Z) - Combined Static Analysis and Machine Learning Prediction for Application Debloating [2.010931857032585]
我々は静的保証付き予測デブロット(PDSG)の枠組みを開発する。
PDSGは、呼び出し元から発せられる動的な呼び出し元セットを予測し、誤った予測を解決するために、コールチェーンの静的不変量に基づいた軽量な監査を使用する。
SPEC CPU 2017において、同様の技術の中で最高のガジェット削減を実現し、平均して82.5%のガジェットを削減した。
論文 参考訳(メタデータ) (2024-03-30T00:14:17Z) - See, Say, and Segment: Teaching LMMs to Overcome False Premises [67.36381001664635]
この課題を解決するために,LMMのカスケードと共同学習手法を提案する。
得られたモデルでは、画像中に物体が存在するかどうかを検知し、その物体が存在しないかをユーザに「例」し、最終的に、対象物のマスクを出力することで「分類」を行う。
論文 参考訳(メタデータ) (2023-12-13T18:58:04Z) - LLVM Static Analysis for Program Characterization and Memory Reuse
Profile Estimation [0.0]
本稿ではLLVMに基づく確率的静的解析手法を提案する。
プログラムの特徴を正確に予測し、プログラムの再利用距離プロファイルを推定する。
その結果,LLVMベースの動的コード解析ツールであるByflと比較して,アプリケーションの特性を正確に予測できることがわかった。
論文 参考訳(メタデータ) (2023-11-20T23:05:06Z) - Scalable Neural Symbolic Regression using Control Variables [7.725394912527969]
本稿では,制御変数を利用したスケーラブルなシンボル回帰モデルであるScaleSRを提案し,精度とスケーラビリティを両立させる。
まず、ディープニューラルネットワーク(DNN)を用いて観測データからデータジェネレータを学習する。
実験結果から,複数の変数を持つ数学的表現の発見において,提案した ScaleSR は最先端のベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-06-07T18:30:25Z) - RMM: Reinforced Memory Management for Class-Incremental Learning [102.20140790771265]
クラスインクリメンタルラーニング(CIL)は、厳格な記憶予算の下で分類器を訓練する。
既存のメソッドは静的およびアドホックな戦略を使ってメモリ割り当てを行うが、これはしばしば準最適である。
本稿では,段階的な段階と異なるオブジェクトクラスに最適化された動的メモリ管理戦略を提案する。
論文 参考訳(メタデータ) (2023-01-14T00:07:47Z) - Integral Continual Learning Along the Tangent Vector Field of Tasks [112.02761912526734]
本稿では,特殊データセットからの情報を段階的に組み込んだ軽量連続学習手法を提案する。
ソースデータセットの0.4%まで小さく、小さな固定サイズのメモリバッファを保持しており、単純な再サンプリングによって更新される。
提案手法は,異なるデータセットに対して,様々なバッファサイズで高い性能を実現する。
論文 参考訳(メタデータ) (2022-11-23T16:49:26Z) - Lassoed Tree Boosting [53.56229983630983]
有界断面変動のカドラー関数の大きな非パラメトリック空間において,早期に停止するn-1/4$ L2の収束速度を持つ勾配向上木アルゴリズムを証明した。
我々の収束証明は、ネストしたドンスカー類の経験的損失最小化子による早期停止に関する新しい一般定理に基づいている。
論文 参考訳(メタデータ) (2022-05-22T00:34:41Z) - Construction de variables \`a l'aide de classifieurs comme aide \`a la
r\'egression [0.03807314298073299]
本稿では,初期入力ベクトルに含まれる情報を補完する変数の自動生成手法を提案する。
提案手法を5種類の回帰器を用いて検証し,33種類の回帰データセットで評価した。
論文 参考訳(メタデータ) (2021-12-03T10:33:57Z) - Truncated Linear Regression in High Dimensions [26.41623833920794]
truncated linear regression において、従属変数 $(A_i, y_i)_i$ は $y_i= A_irm T cdot x* + eta_i$ は固定された未知の興味ベクトルである。
目標は、$A_i$とノイズ分布に関するいくつかの好ましい条件の下で$x*$を回復することである。
我々は、$k$-sparse $n$-dimensional vectors $x*$ from $m$ truncated sample。
論文 参考訳(メタデータ) (2020-07-29T00:31:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。