論文の概要: WDD: Weighted Delta Debugging
- arxiv url: http://arxiv.org/abs/2411.19410v2
- Date: Mon, 16 Dec 2024 23:19:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:55:38.886252
- Title: WDD: Weighted Delta Debugging
- Title(参考訳): WDD: 軽量デルタデバッグ
- Authors: Xintong Zhou, Zhenyang Xu, Mengxiao Zhang, Yongqiang Tian, Chengnian Sun,
- Abstract要約: Delta Weighted Delta (WDD)は、デルタデバッグアルゴリズムが制限を克服するのに役立つ新しいコンセプトである。
WDDはリスト内の各要素をそのサイズに応じて重み付けし、分割中の重みに基づいて異なる要素を区別する。
我々は2つの言語にわたる62のベンチマークで、WDDを2つの代表的アプリケーション(HDDとPerses)で広範囲に評価した。
- 参考スコア(独自算出の注目度): 6.393194328016689
- License:
- Abstract: Delta Debugging is a widely used family of algorithms (e.g., ddmin and ProbDD) to automatically minimize bug-triggering test inputs, thus to facilitate debugging. It takes a list of elements with each element representing a fragment of the test input, systematically partitions the list at different granularities, identifies and deletes bug-irrelevant partitions. Prior delta debugging algorithms assume there are no differences among the elements in the list, and thus treat them uniformly during partitioning. However, in practice, this assumption usually does not hold, because the size (referred to as weight) of the fragment represented by each element can vary significantly. For example, a single element representing 50% of the test input is much more likely to be bug-relevant than elements representing only 1%. This assumption inevitably impairs the efficiency or even effectiveness of these delta debugging algorithms. This paper proposes Weighted Delta Debugging (WDD), a novel concept to help prior delta debugging algorithms overcome the limitation mentioned above. The key insight of WDD is to assign each element in the list a weight according to its size, and distinguish different elements based on their weights during partitioning. We designed two new minimization algorithms, Wddmin and WProbDD, by applying WDD to ddmin and ProbDD respectively. We extensively evaluated Wddmin and WProbDD in two representative applications, HDD and Perses, on 62 benchmarks across two languages. The results strongly demonstrate the value of WDD. We firmly believe that WDD opens up a new dimension to improve test input minimization techniques.
- Abstract(参考訳): Delta Debuggingは、バグトリガテスト入力を自動的に最小化し、デバッグを容易にするアルゴリズム(例えば、ddminやProbDD)のファミリーである。
テスト入力の断片を表す各要素の要素のリストを取得し、そのリストを異なる粒度で体系的に分割し、バグ関連パーティションを特定し、削除する。
以前のデルタデバッギングアルゴリズムは、リスト内の要素に違いがないと仮定し、パーティショニング中にそれらを一様に扱う。
しかし、実際には、各要素によって表される断片のサイズ(重みとして参照される)が著しく異なるため、この仮定は通常は成り立たない。
例えば、テスト入力の50%を表す1つの要素は、1%だけを表す要素よりもバグ関連である可能性が高い。
この仮定はデルタデバッギングアルゴリズムの効率や効果を必然的に損なう。
本稿では,従来のデルタデバッギングアルゴリズムが上述の制限を克服するのに役立つ新しい概念であるWeighted Delta Debugging (WDD)を提案する。
WDDのキーとなる洞察は、リスト内の各要素をそのサイズに応じて重み付けし、分割中の重みに基づいて異なる要素を区別することである。
We designed two new minimization algorithm, Wddmin and WProbDD, by applied WDD to ddmin and ProbDD。
WddminとWProbDDの2つの代表的なアプリケーションであるHDDとPersesを62のベンチマークで評価した。
結果はWDDの価値を強く示している。
我々は、WDDがテスト入力最小化技術を改善するために新しい次元を開くと強く信じている。
関連論文リスト
- FairDD: Fair Dataset Distillation via Synchronized Matching [13.60524473223155]
本稿では,FairDDという新しいフェアデータセット蒸留(FDD)フレームワークを提案する。
FairDDの鍵となるイノベーションは、同期的に合成データセットを元のデータセットのPAワイドグループにマッチングすることにある。
分類精度を犠牲にすることなく,FairDDはバニラDD法に比べて公平性を著しく向上することを示した。
論文 参考訳(メタデータ) (2024-11-29T11:22:20Z) - Dataset Distillation from First Principles: Integrating Core Information Extraction and Purposeful Learning [10.116674195405126]
我々は、基礎となる最適化問題の正確な特徴付けは、関心の応用に関連する推論タスクを指定しなければならないと論じる。
我々の形式化は、様々なモデリング環境にまたがるDDの新たな応用を明らかにします。
現代の環境において重要な2つのケーススタディについて数値的な結果を示す。
論文 参考訳(メタデータ) (2024-09-02T18:11:15Z) - Toward a Better Understanding of Probabilistic Delta Debugging [6.393194328016689]
アドバンストなddminであるProbDDが提案され、最先端のパフォーマンスを実現している。
ProbDDの詳細な理論的解析を行い、確率とサブセットサイズの変化の傾向を明らかにする。
本稿では,ProbDDの簡易版であるCDDを提案する。
論文 参考訳(メタデータ) (2024-08-08T19:30:03Z) - ZeroDDI: A Zero-Shot Drug-Drug Interaction Event Prediction Method with Semantic Enhanced Learning and Dual-Modal Uniform Alignment [11.290096354280111]
以前は未観測/未確認のDDIEが登場しており、未確認のクラスがトレーニング段階でラベル付きインスタンスを持たない場合に、新しい分類タスクを呈している。
既存の計算手法はZS-DDIEには直接適用されないが、この方法には2つの主要な課題がある。
ZS-DDIEタスクのためのZeroDDIという新しい手法を提案する。これは重要な生物学的意味論を強調し、DDIE表現学習のための識別的分子サブ構造関連意味論を蒸留する。
論文 参考訳(メタデータ) (2024-07-01T01:28:14Z) - Theoretically Achieving Continuous Representation of Oriented Bounding Boxes [64.15627958879053]
本論文は,オブジェクト指向境界ボックス表現における不連続性を完全に解決しようとする試みである。
本研究では,既存の検出器に容易に統合可能なCOBB(Continuous OBB)という新しい表現法を提案する。
OOD評価のためのオープンソースのディープラーニングフレームワークJittorの検出ツールボックスJDetをベースとした,モジュール化されたベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-29T09:27:40Z) - AdaNPC: Exploring Non-Parametric Classifier for Test-Time Adaptation [64.9230895853942]
ドメインの一般化は、ターゲットのドメイン情報を活用することなく、任意に困難にすることができる。
この問題に対処するためにテスト時適応(TTA)手法が提案されている。
本研究では,テスト時間適応(AdaNPC)を行うためにNon-Parametricを採用する。
論文 参考訳(メタデータ) (2023-04-25T04:23:13Z) - Absolute Wrong Makes Better: Boosting Weakly Supervised Object Detection
via Negative Deterministic Information [54.35679298764169]
弱教師付き物体検出(WSOD)は、画像レベルのラベルを用いて物体検出を訓練する難しい課題である。
本稿では,WSODにおける決定論的情報を特定し,完全に活用することに焦点を当てる。
我々は、WSOD、すなわちNDI-WSODを改善するための負の決定論的情報(NDI)に基づく手法を提案する。
論文 参考訳(メタデータ) (2022-04-21T12:55:27Z) - Benchmarking Deep Models for Salient Object Detection [67.07247772280212]
汎用SALOD(General SALient Object Detection)ベンチマークを構築し,複数のSOD手法の総合的な比較を行った。
以上の実験では、既存の損失関数は、通常いくつかの指標に特化しているが、他の指標には劣る結果が報告されている。
我々は,深層ネットワークに画素レベルと画像レベルの両方の監視信号を統合することにより,より識別的な特徴を学習するためのエッジ・アウェア・ロス(EA)を提案する。
論文 参考訳(メタデータ) (2022-02-07T03:43:16Z) - ADAPT: Mitigating Idling Errors in Qubits via Adaptive Dynamical
Decoupling [3.2505361717998227]
キュービットはアイドル状態にあり、アクティブな操作を行わないときに発生するアイドルエラーの影響を受けやすい。
既存の動的デカップリングプロトコルは主に個々の量子ビットに対して研究されている。
本稿では,各キュービットの組み合わせに対するDDの有効性を推定するソフトウェアフレームワークであるAdaptive Dynamical Decoupling (ADAPT)を提案する。
論文 参考訳(メタデータ) (2021-09-11T16:15:24Z) - AdamP: Slowing Down the Slowdown for Momentum Optimizers on
Scale-invariant Weights [53.8489656709356]
正規化技術は現代の深層学習の恩恵である。
しかし、運動量を導入することで、スケール不変の重みに対する効果的なステップサイズが急速に小さくなることがしばしば見過ごされる。
本稿では,この2つの材料の組み合わせが,有効ステップサイズと準最適モデル性能の早期劣化につながることを検証した。
論文 参考訳(メタデータ) (2020-06-15T08:35:15Z) - Simple and Effective Prevention of Mode Collapse in Deep One-Class
Classification [93.2334223970488]
深部SVDDにおける超球崩壊を防止するための2つの正則化器を提案する。
第1の正則化器は、標準のクロスエントロピー損失によるランダムノイズの注入に基づいている。
第2の正規化器は、小さすぎるとミニバッチ分散をペナライズする。
論文 参考訳(メタデータ) (2020-01-24T03:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。