論文の概要: Accelerating Delta Debugging through Probabilistic Monotonicity Assessment
- arxiv url: http://arxiv.org/abs/2506.11614v1
- Date: Fri, 13 Jun 2025 09:35:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.736897
- Title: Accelerating Delta Debugging through Probabilistic Monotonicity Assessment
- Title(参考訳): 確率的単調性評価によるデルタデバッグの高速化
- Authors: Yonggang Tao, Jingling Xue,
- Abstract要約: 本稿では,確率的単調性評価(PMA)を紹介する。
PMAは、効率を犠牲にすることなくDDMINスタイルのアルゴリズムの効率を高める。
PMAを2つの主要なDDMIN式ツールであるCHISELとProbDDと比較した。
- 参考スコア(独自算出の注目度): 4.157030233581307
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Delta debugging assumes search space monotonicity: if a program causes a failure, any supersets of that program will also induce the same failure, permitting the exclusion of subsets of non-failure-inducing programs. However, this assumption does not always hold in practice. This paper introduces Probabilistic Monotonicity Assessment (PMA), enhancing the efficiency of DDMIN-style algorithms without sacrificing effectiveness. PMA dynamically models and assesses the search space's monotonicity based on prior tests tried during the debugging process and uses a confidence function to quantify monotonicity, thereby enabling the probabilistic exclusion of subsets of non-failure-inducing programs. Our approach significantly reduces redundant tests that would otherwise be performed, without compromising the quality of the reduction. We evaluated PMA against two leading DDMIN-style tools, CHISEL and ProbDD. Our findings indicate that PMA cuts processing time by 59.2% compared to CHISEL, accelerates the reduction process (i.e., the number of tokens deleted per second) by 3.32x, and decreases the sizes of the final reduced programs by 6.7%. Against ProbDD, PMA reduces processing time by 22.0%, achieves a 1.34x speedup in the reduction process, and further decreases the sizes of the final reduced programs by 3.0%. These findings affirm PMA's role in significantly improving delta debugging's efficiency while maintaining or enhancing its effectiveness.
- Abstract(参考訳): デルタデバッギングは検索空間の単調性を前提としており、プログラムが障害を起こした場合、そのプログラムのスーパーセットは同じ障害を誘発し、非障害発生プログラムのサブセットを除外する。
しかし、この仮定は実際には必ずしも成り立たない。
本稿では,確率的単調性評価(PMA)を導入し,DDMIN型アルゴリズムの効率を犠牲にすることなく向上させる。
PMAは、デバッグプロセス中に試された事前テストに基づいて、探索空間のモノトニック性を動的にモデル化し評価し、信頼性関数を用いてモノトニック性を定量化し、非障害誘導プログラムのサブセットの確率論的排除を可能にする。
提案手法は, 性能を損なうことなく, 実施すべき冗長なテストを大幅に削減する。
PMAを2つの主要なDDMIN式ツールであるCHISELとProbDDと比較した。
以上の結果から,PMAはCHISELと比較して処理時間を59.2%削減し,削減プロセス(秒単位のトークン数)を3.32倍短縮し,最終縮小プログラムのサイズを6.7%削減することがわかった。
ProbDDに対して、PMAは処理時間を22.0%削減し、削減プロセスの1.34倍の高速化を実現し、さらに最終縮小プログラムのサイズを3.0%削減する。
これらの結果は,PMAがデルタデバッギングの効率を向上し,その効率を維持・増強する役割があることを裏付けるものである。
関連論文リスト
- PMPO: Probabilistic Metric Prompt Optimization for Small and Large Language Models [0.15146068448101743]
PMPOはトークンレベルのクロスエントロピー損失を直接的かつ軽量な評価信号として利用するプロンプトを洗練するフレームワークである。
従来の方法とは異なり、最適化中に出力サンプリングや人的評価は必要とせず、フォワードパスとログライクな条件にのみ依存する。
実験の結果、PMPOはモデルのサイズやタスクにまたがる先行メソッドよりも一貫して優れています。
論文 参考訳(メタデータ) (2025-05-22T06:59:10Z) - Toward a Better Understanding of Probabilistic Delta Debugging [6.393194328016689]
アドバンストなddminであるProbDDが提案され、最先端のパフォーマンスを実現している。
ProbDDの詳細な理論的解析を行い、確率とサブセットサイズの変化の傾向を明らかにする。
本稿では,ProbDDの簡易版であるCDDを提案する。
論文 参考訳(メタデータ) (2024-08-08T19:30:03Z) - Inference-Time Decontamination: Reusing Leaked Benchmarks for Large Language Model Evaluation [61.350306618479365]
ベンチマークの漏洩は、大規模言語モデルの真のパフォーマンスの正確な評価を防ぐことができる。
この問題に対処するため,ITD(Inference-Time Decontamination)を提案する。
ITDは、GSM8Kで22.9%、MMLUで19.0%の膨張精度を低下させる。
論文 参考訳(メタデータ) (2024-06-20T04:35:59Z) - LD-Pruner: Efficient Pruning of Latent Diffusion Models using Task-Agnostic Insights [2.8461446020965435]
本稿では,遅延拡散モデル圧縮のための新しい性能保存型構造化プルーニング手法であるLD-Prunerを紹介する。
我々は,テキスト・トゥ・イメージ(T2I)生成,無条件画像生成(UIG),無条件音声生成(UAG)の3つのタスクに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-04-18T06:35:37Z) - An Experimental Design for Anytime-Valid Causal Inference on Multi-Armed Bandits [0.0]
本稿では,Mixture Adaptive Design (MAD)を提案する。
MADは、万能MABアルゴリズムの平均処理効果(ATE)について、任意の時間価推論を可能にする。
論文 参考訳(メタデータ) (2023-11-09T23:57:32Z) - LoRAPrune: Structured Pruning Meets Low-Rank Parameter-Efficient Fine-Tuning [56.88751562302793]
低ランク適応 (LoRA) が大型言語モデル (LLM) に登場した。
LoRAPruneは、高度にメモリ効率の良い正確な構造化プルーンドモデルを提供する新しいフレームワークである。
LoRAPruneはWikiText2では4.81、TBでは3.46、メモリ使用量は52.6%減少している。
論文 参考訳(メタデータ) (2023-05-28T15:15:48Z) - Post-Processing Temporal Action Detection [134.26292288193298]
時間的行動検出(TAD)法は、通常、入力された可変長のビデオを固定長のスニペット表現シーケンスに変換する際に、前処理のステップを踏む。
この前処理ステップは、ビデオを時間的にダウンサンプリングし、推論の解像度を低減し、元の時間分解における検出性能を阻害する。
モデルの再設計や再学習を伴わない新しいモデル非依存のポストプロセッシング手法を提案する。
論文 参考訳(メタデータ) (2022-11-27T19:50:37Z) - ERNIE-SPARSE: Learning Hierarchical Efficient Transformer Through
Regularized Self-Attention [48.697458429460184]
情報ボトルネック感度と異なる注目トポロジ間の不整合の2つの要因がスパース変換器の性能に影響を及ぼす可能性がある。
本稿では,ERNIE-Sparseというモデルを提案する。
i) 局所情報とグローバル情報を逐次統一する階層スパース変換器(HST) と、(ii) 注意トポロジの異なる変換器の距離を最小化する自己注意正規化(SAR) の2つの特徴がある。
論文 参考訳(メタデータ) (2022-03-23T08:47:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。