論文の概要: Validity-Preserving Delta Debugging via Generator
- arxiv url: http://arxiv.org/abs/2402.04623v1
- Date: Wed, 7 Feb 2024 07:12:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 16:28:50.205900
- Title: Validity-Preserving Delta Debugging via Generator
- Title(参考訳): ジェネレータによる妥当性保存デルタデバッギング
- Authors: Luyao Ren, Xing Zhang, Ziyue Hua, Yanyan Jiang, Xiao He, Tao Xie
- Abstract要約: 本稿では,ジェネレータを用いたデルタデバッギング手法であるGReduceを提案する。
GReduceは、削減された有効なテスト入力を出力するジェネレータ上の他の実行を検索する。
GReduceの結果は28.5%、34.6%、75.6%、GReduceは17.5%、0.6%、65.4%である。
- 参考スコア(独自算出の注目度): 11.272261539536842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reducing test inputs that trigger bugs is crucial for efficient debugging.
Delta debugging is the most popular approach for this purpose. When test inputs
need to conform to certain specifications, existing delta debugging practice
encounters a validity problem: it blindly applies reduction rules, producing a
large number of invalid test inputs that do not satisfy the required
specifications. This overall diminishing effectiveness and efficiency becomes
even more pronounced when the specifications extend beyond syntactical
structures. Our key insight is that we should leverage input generators, which
are aware of these specifications, to generate valid reduced inputs, rather
than straightforwardly performing reduction on test inputs. In this paper, we
propose a generator-based delta debugging method, namely GReduce, which derives
validity-preserving reducers. Specifically, given a generator and its
execution, demonstrating how the bug-inducing test input is generated, GReduce
searches for other executions on the generator that yield reduced, valid test
inputs. To evaluate the effectiveness, efficiency, and versatility of GReduce,
we apply GReduce and the state-of-the-art reducer Perses in three domains:
graphs, deep learning models, and JavaScript programs. The results of GReduce
are 28.5%, 34.6%, 75.6% in size of those from Perses, and GReduce takes 17.5%,
0.6%, 65.4% time taken by Perses.
- Abstract(参考訳): 効率的なデバッグには、バグを引き起こすテストインプットの削減が不可欠だ。
デルタデバッギングはこの目的のために最も一般的なアプローチである。
テスト入力が特定の仕様に準拠する必要がある場合、既存のdeltaデバッギングプラクティスは有効性の問題に遭遇する。
この全体的な効果と効率の低下は、仕様が構文構造を超えて拡張されるとさらに顕著になる。
私たちの重要な洞察は、これらの仕様に気付いている入力ジェネレータを活用して、テスト入力の直接的な削減を行うのではなく、有効な削減入力を生成するべきだということです。
本稿では,有効性保存型リデューサを導出するジェネレータ型デルタデバッグ手法であるgreduceを提案する。
具体的には、ジェネレータとその実行が、バグ誘発テストインプットの生成方法を示すものであることを条件として、GReduceは、削減された有効なテストインプットを出力するジェネレータ上の他の実行を検索する。
GReduceの有効性,効率,汎用性を評価するため,グラフ,ディープラーニングモデル,JavaScriptプログラムの3つの領域にGReduceと最先端のReduce Persesを適用した。
GReduceの結果は28.5%、34.6%、75.6%、GReduceは17.5%、0.6%、65.4%である。
関連論文リスト
- Automated Proof Generation for Rust Code via Self-Evolution [69.25795662658356]
私たちは、Rustコードの自動証明生成を可能にする、人間による証明の欠如を克服する新しいフレームワークであるSAFEを紹介します。
GPT-4oに比べて効率と精度が優れていた。
この進歩により性能が大幅に向上し、人間の専門家によるベンチマークで70.50%の精度が達成された。
論文 参考訳(メタデータ) (2024-10-21T08:15:45Z) - SINDER: Repairing the Singular Defects of DINOv2 [61.98878352956125]
大規模なデータセットでトレーニングされたビジョントランスフォーマーモデルは、抽出したパッチトークンにアーティファクトを表示することが多い。
本稿では,小さなデータセットのみを用いて構造欠陥を補正するスムーズなスムーズな正規化を提案する。
論文 参考訳(メタデータ) (2024-07-23T20:34:23Z) - FRGNN: Mitigating the Impact of Distribution Shift on Graph Neural
Networks via Test-Time Feature Reconstruction [13.21683198528012]
分散シフトはグラフニューラルネットワーク(GNN)のテスト性能に悪影響を及ぼす可能性がある
特徴再構成を行うための汎用フレームワークFR-GNNを提案する。
特に、再構成されたノード機能は、よく訓練されたモデルをテストするために直接利用することができる。
論文 参考訳(メタデータ) (2023-08-18T02:34:37Z) - EEL: Efficiently Encoding Lattices for Reranking [44.77383151122229]
生成した出力の格子を効率的にエンコードするためにTransformerを使用します。
このアプローチをトークン駆動リランカ(TFR)の新しいクラスと組み合わせる。
以上の結果から,ダウンストリームメトリクスの性能は,従来の手法に比べて大幅に向上した。
論文 参考訳(メタデータ) (2023-06-01T17:45:32Z) - Applying and Extending the Delta Debugging Algorithm for Elevator
Dispatching Algorithms (Experience Paper) [7.289672463326423]
エレベータディスパッチアルゴリズムでは、ソフトウェア開発者に最小限のテスト入力を提供するのが利点である。
本稿では,まずCPSが動作する環境と物理状態をモニタリングすることにより,この手法を強化する。
2番目のステップでは、このような安定した状態を用いて、デルタデバッグアルゴリズムがより効率的に障害発生テストインプットを分離するのを助ける。
論文 参考訳(メタデータ) (2023-05-28T19:27:24Z) - Teaching Large Language Models to Self-Debug [62.424077000154945]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを達成した。
本稿では,大規模言語モデルで予測プログラムを数発のデモでデバッグする自己デバッグを提案する。
論文 参考訳(メタデータ) (2023-04-11T10:43:43Z) - A Fair Loss Function for Network Pruning [70.35230425589592]
本稿では, 刈り込み時のバイアスの抑制に使用できる簡易な改良型クロスエントロピー損失関数である, 性能重み付き損失関数を提案する。
CelebA、Fitzpatrick17k、CIFAR-10データセットを用いた実験は、提案手法が単純で効果的なツールであることを実証している。
論文 参考訳(メタデータ) (2022-11-18T15:17:28Z) - TTAPS: Test-Time Adaption by Aligning Prototypes using Self-Supervision [70.05605071885914]
本研究では,単体テストサンプルに適用可能な自己教師付きトレーニングアルゴリズムSwaVの新たな改良を提案する。
ベンチマークデータセットCIFAR10-Cにおいて,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-05-18T05:43:06Z) - Distribution-Aware Testing of Neural Networks Using Generative Models [5.618419134365903]
ディープニューラルネットワーク(DNN)をコンポーネントとして持つソフトウェアの信頼性は、緊急に重要である。
最近の3つのテスト手法が, かなりの数の不正なテスト入力を生成することを示す。
テスト生成プロセスにおいて,テスト中のDNNモデルの有効な入力空間を組み込む手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T17:18:21Z) - PC-GAIN: Pseudo-label Conditional Generative Adversarial Imputation
Networks for Incomplete Data [19.952411963344556]
PC-GAIN(PC-GAIN)は、PC-GAIN(PC-GAIN)と呼ばれる新しい教師なしデータ計算法である。
まず,低損失率データのサブセットに含まれる潜在的なカテゴリ情報を学習するための事前学習手順を提案する。
そして、合成擬似ラベルを用いて補助分類器を決定する。
論文 参考訳(メタデータ) (2020-11-16T08:08:26Z) - AQD: Towards Accurate Fully-Quantized Object Detection [94.06347866374927]
本稿では,浮動小数点演算を除去するために,AQDと呼ばれる高精度な量子化オブジェクト検出ソリューションを提案する。
我々のAQDは、非常に低ビットのスキームの下での完全精度と比較して、同等またはそれ以上の性能を実現しています。
論文 参考訳(メタデータ) (2020-07-14T09:07:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。