論文の概要: GPTrace: Effective Crash Deduplication Using LLM Embeddings
- arxiv url: http://arxiv.org/abs/2512.01609v1
- Date: Mon, 01 Dec 2025 12:30:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.846604
- Title: GPTrace: Effective Crash Deduplication Using LLM Embeddings
- Title(参考訳): GPTrace: LLM埋め込みを用いた効果的なクラッシュ重複
- Authors: Patrick Herter, Vincent Ahlrichs, Ridvan Açilan, Julian Horsch,
- Abstract要約: クラッシュ重複(Crash Deduplication)とは、重複するインプットを検出して、検査が必要なデータを減らすタスクである。
GPTraceは,大規模な言語モデルを利用して,クラッシュに伴う各種データソースの類似性を評価するデ重複ワークフローである。
14のターゲットから50の真実ラベルに属する30万以上のクラッシュインプットに対して,我々のアプローチを評価した。
- 参考スコア(独自算出の注目度): 0.8166364251367626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fuzzing is a highly effective method for uncovering software vulnerabilities, but analyzing the resulting data typically requires substantial manual effort. This is amplified by the fact that fuzzing campaigns often find a large number of crashing inputs, many of which share the same underlying bug. Crash deduplication is the task of finding such duplicate crashing inputs and thereby reducing the data that needs to be examined. Many existing deduplication approaches rely on comparing stack traces or other information that is collected when a program crashes. Although various metrics for measuring the similarity of such pieces of information have been proposed, many do not yield satisfactory deduplication results. In this work, we present GPTrace, a deduplication workflow that leverages a large language model to evaluate the similarity of various data sources associated with crashes by computing embedding vectors and supplying those as input to a clustering algorithm. We evaluate our approach on over 300 000 crashing inputs belonging to 50 ground truth labels from 14 different targets. The deduplication results produced by GPTrace show a noticeable improvement over hand-crafted stack trace comparison methods and even more complex state-of-the-art approaches that are less flexible.
- Abstract(参考訳): ファジィング(fuzzing)は、ソフトウェア脆弱性を明らかにするための非常に効果的な方法であるが、結果として得られるデータを分析するには、通常、かなりの手作業が必要になる。
これはファジィキャンペーンが頻繁にクラッシュするインプットを見つけ、その多くが同じバグを共有しているという事実によって増幅される。
クラッシュの重複は、重複する入力を見つけ、検査すべきデータを減らすタスクである。
既存の重複処理アプローチの多くは、プログラムがクラッシュしたときに収集されたスタックトレースやその他の情報を比較することに依存している。
このような情報の類似性を測定するための様々な指標が提案されているが、その多くが十分な重複を生じない。
本稿では,大規模言語モデルを利用して,衝突に関連する各種データソースの類似性を,埋め込みベクトルを計算し,クラスタリングアルゴリズムに入力として供給することにより評価する。
14の異なる目標から50の真実ラベルに属する30万以上のクラッシュインプットに対して,我々のアプローチを評価した。
GPTraceによる重複解消の結果は、手作りスタックトレース比較法よりも顕著な改善と、より柔軟性の低いより複雑な最先端アプローチを示している。
関連論文リスト
- Stack Trace-Based Crash Deduplication with Transformer Adaptation [2.846561253333858]
自動クラッシュ報告システムは大量の重複レポートを生成する。
スタックトレースに基づく従来の重複解法は、スタックトレース内のコンテキスト的および構造的関係を捉えるのに失敗する。
DedupTは、スタックを独立したフレームとしてではなく、階層的にトレースするトランスフォーマーベースのアプローチである。
論文 参考訳(メタデータ) (2025-08-26T21:51:10Z) - On the Feasibility of Deduplicating Compiler Bugs with Bisection [1.286741686995463]
バグ重複(Bug deduplication)は、バグ重複として知られる実用的な研究問題である。
コンパイラのバグ重複の以前の方法は主に、重複識別のためのバグ関連機能を抽出するプログラム分析に依存していた。
BugLensは、主に二分法を用いる新しい重複解法であり、偽陰性を最小化するためにバグトリガ最適化の同定によって強化される。
論文 参考訳(メタデータ) (2025-06-29T15:12:57Z) - Stack Trace Deduplication: Faster, More Accurately, and in More Realistic Scenarios [42.75968139336785]
大規模なソフトウェアシステムでは、エラーが発生した時に人による記述が書かれた完全なバグレポートは存在しないことが多い。
この場合、開発者はスタックトレース、すなわち一連の関数呼び出しに頼り、エラーを引き起こした。
近年の研究では、これに対する強力な深層学習に基づくアプローチが提案されているが、実際のカテゴリーから独立して評価され、比較されている。
論文 参考訳(メタデータ) (2024-12-19T12:48:17Z) - Fact Checking Beyond Training Set [64.88575826304024]
本稿では,レトリバーリーダが,あるドメインのラベル付きデータに基づいてトレーニングし,別のドメインで使用する場合,性能劣化に悩まされることを示す。
本稿では,レトリバー成分を分散シフトに対して頑健にするための逆アルゴリズムを提案する。
次に、これらのデータセットから8つの事実チェックシナリオを構築し、モデルと強力なベースラインモデルのセットを比較します。
論文 参考訳(メタデータ) (2024-03-27T15:15:14Z) - Simple Ingredients for Offline Reinforcement Learning [86.1988266277766]
オフライン強化学習アルゴリズムは、ターゲット下流タスクに高度に接続されたデータセットに有効であることが証明された。
既存の手法が多様なデータと競合することを示す。その性能は、関連するデータ収集によって著しく悪化するが、オフラインバッファに異なるタスクを追加するだけでよい。
アルゴリズム的な考慮以上のスケールが、パフォーマンスに影響を及ぼす重要な要因であることを示す。
論文 参考訳(メタデータ) (2024-03-19T18:57:53Z) - Rethinking Negative Pairs in Code Search [56.23857828689406]
我々は、重み項をInfoNCEに挿入する簡易で効果的なSoft-InfoNCE損失を提案する。
我々は,Soft-InfoNCEが学習したコード表現の分布を制御することと,より正確な相互情報推定の導出に与える影響を分析する。
論文 参考訳(メタデータ) (2023-10-12T06:32:42Z) - Combining Feature and Instance Attribution to Detect Artifacts [62.63504976810927]
トレーニングデータアーティファクトの識別を容易にする手法を提案する。
提案手法は,トレーニングデータのアーティファクトの発見に有効であることを示す。
我々は,これらの手法が実際にNLP研究者にとって有用かどうかを評価するために,小規模なユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-07-01T09:26:13Z) - S3M: Siamese Stack (Trace) Similarity Measure [55.58269472099399]
本稿では、深層学習に基づくスタックトレースの類似性を計算する最初のアプローチであるS3Mを紹介します。
BiLSTMエンコーダと、類似性を計算するための完全接続型分類器をベースとしている。
私たちの実験は、オープンソースデータとプライベートなJetBrainsデータセットの両方において、最先端のアプローチの優位性を示しています。
論文 参考訳(メタデータ) (2021-03-18T21:10:41Z) - Hard-label Manifolds: Unexpected Advantages of Query Efficiency for
Finding On-manifold Adversarial Examples [67.23103682776049]
画像分類モデルに対する最近のゼロオーダーのハードラベル攻撃は、ファーストオーダーのグラデーションレベルの代替品に匹敵する性能を示している。
最近、グラデーションレベルの設定では、通常の敵対的な例がデータ多様体から離れ、オンマニホールドの例が実際には一般化エラーであることが示されている。
雑音の多い多様体距離オラクルに基づく情報理論論的議論を提案し、敵の勾配推定を通じて多様体情報を漏洩させる。
論文 参考訳(メタデータ) (2021-03-04T20:53:06Z) - Establishing strong imputation performance of a denoising autoencoder in
a wide range of missing data problems [0.0]
トレーニングと計算の両方に一貫したフレームワークを開発します。
結果と最先端の計算手法を比較検討した。
開発されたオートエンコーダは、初期データ破損のあらゆる範囲において最小の誤差を得た。
論文 参考訳(メタデータ) (2020-04-06T12:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。