論文の概要: Revisiting "Revisiting Neuron Coverage for DNN Testing: A Layer-Wise and Distribution-Aware Criterion": A Critical Review and Implications on DNN Coverage Testing
- arxiv url: http://arxiv.org/abs/2601.08729v1
- Date: Tue, 13 Jan 2026 16:58:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.29876
- Title: Revisiting "Revisiting Neuron Coverage for DNN Testing: A Layer-Wise and Distribution-Aware Criterion": A Critical Review and Implications on DNN Coverage Testing
- Title(参考訳): DNNテストのためのニューロン被覆の再検討:レイヤワイズと分布認識基準:DNNカバレッジテストの批判的レビューと含意
- Authors: Jinhan Kim, Nargiz Humbatova, Gunel Jahangirova, Shin Yoo, Paolo Tonella,
- Abstract要約: ICSE 2023において,Yuanらによる最先端のニューラルカバー基準の批判的レビューを行った。
我々は,NLCが単調性やテストスイートの独立性などのカバレッジ基準の中核的な原則から逸脱していることを観察する。
今後のDNNカバレッジメトリクスの改善を提案する。
- 参考スコア(独自算出の注目度): 13.058163494494446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a critical review of Neural Coverage (NLC), a state-of-the-art DNN coverage criterion by Yuan et al. at ICSE 2023. While NLC proposes to satisfy eight design requirements and demonstrates strong empirical performance, we question some of their theoretical and empirical assumptions. We observe that NLC deviates from core principles of coverage criteria, such as monotonicity and test suite order independence, and could more fully account for key properties of the covariance matrix. Additionally, we note threats to the validity of the empirical study, related to the ground truth ordering of test suites. Through our empirical validation, we substantiate our claims and propose improvements for future DNN coverage metrics. Finally, we conclude by discussing the implications of these insights.
- Abstract(参考訳): ICSE 2023において,Yuanらによる最新のDNNカバレッジ基準であるNeural Coverage(NLC)の批判的レビューを行った。
NLCは8つの設計要件を満たすことを提案し、強い経験的性能を示すが、理論的および経験的仮定のいくつかは疑問視する。
我々は,NLCが単調性やテストスイートの独立性などのカバレッジ基準の中核原理から逸脱し,共分散行列の重要な性質をより完全に説明できることを示した。
さらに,テストスイートの真理順序に関する実証研究の有効性に対する脅威についても言及する。
実証検証を通じて、我々の主張を裏付け、将来のDNNカバレッジメトリクスの改善を提案する。
最後に、これらの洞察の意味について論じる。
関連論文リスト
- On the Limits of Test-Time Compute: Sequential Reward Filtering for Better Inference [71.09125259964684]
テスト時計算(TTC)は、大規模言語モデル(LLM)の拡張のパラダイムとして、ますます顕著になっている。
本稿では,高次世代のみを文脈に選択的に組み込む単純な手順である報酬フィルタシーケンシャル推論について検討する。
理論的には、報酬フィルタによる逐次推論は標準TTCパラダイムよりも厳密な保証が得られることを示す。
論文 参考訳(メタデータ) (2025-12-04T08:21:33Z) - CCE: Confidence-Consistency Evaluation for Time Series Anomaly Detection [56.302586730134806]
本稿では,新しい評価指標である信頼性・一貫性評価(CCE)を紹介する。
CCEは同時に、予測の信頼性と不確実性を測定する。
RankEvalは、さまざまなメトリクスのランキング機能を比較するためのベンチマークです。
論文 参考訳(メタデータ) (2025-09-01T03:38:38Z) - A Sample Efficient Conditional Independence Test in the Presence of Discretization [54.047334792855345]
離散化されたデータに直接条件付き独立テスト(CI)は、誤った結論につながる可能性がある。
最近の進歩は、観測データをバイナライズすることで、潜伏変数間の適切なCI関係を推測することを目指している。
そこで本研究では,バイナライゼーションプロセスに依存しないサンプル効率のCIテストを提案する。
論文 参考訳(メタデータ) (2025-06-10T12:41:26Z) - Precision, Stability, and Generalization: A Comprehensive Assessment of RNNs learnability capability for Classifying Counter and Dyck Languages [9.400009043451046]
本研究では,構造化形式言語におけるリカレントニューラルネットワーク(RNN)の学習可能性について検討する。
伝統的に、1次(LSTM)と2次(O2RNN)のRNNは、これらのタスクに有効であると考えられてきた。
論文 参考訳(メタデータ) (2024-10-04T03:22:49Z) - Has the Deep Neural Network learned the Stochastic Process? An Evaluation Viewpoint [17.897121328003617]
本稿では,Deep Neural Networks (DNN) の評価に関する最初の体系的研究について述べる。
従来の評価手法は,観測対象の真実を再現するDNNの能力を評価するが,基礎となる過程を測ることができないことを示す。
我々は、F2SP(Fidelity toGT Process)と呼ばれる新しい評価基準を提案する。
論文 参考訳(メタデータ) (2024-02-23T07:54:20Z) - Efficient kernel surrogates for neural network-based regression [0.8030359871216615]
ニューラルタンジェントカーネル(NTK)の効率的な近似である共役カーネル(CK)の性能について検討する。
CK性能がNTKよりもわずかに劣っていることを示し、特定の場合において、CK性能が優れていることを示す。
NTKの代わりにCKを使用するための理論的基盤を提供するだけでなく,DNNの精度を安価に向上するためのレシピを提案する。
論文 参考訳(メタデータ) (2023-10-28T06:41:47Z) - Understanding, Predicting and Better Resolving Q-Value Divergence in
Offline-RL [86.0987896274354]
まず、オフラインRLにおけるQ値推定のばらつきの主な原因として、基本パターン、自己励起を同定する。
そこで本研究では,Q-network の学習における進化特性を測定するために,SEEM(Self-Excite Eigen Value Measure)尺度を提案する。
われわれの理論では、訓練が早期に発散するかどうかを確実に決定できる。
論文 参考訳(メタデータ) (2023-10-06T17:57:44Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - On the Relationship Between Adversarial Robustness and Decision Region in Deep Neural Networks [24.82243003178264]
敵攻撃時のモデルロバスト性に影響を与えるディープニューラルネットワーク(DNN)の内部特性について検討する。
本稿では,より頻度の高いトレーニングサンプルを配置するPRS(Populated Region Set)の概念を提案する。
論文 参考訳(メタデータ) (2022-07-07T16:06:34Z) - Beyond Class-Conditional Assumption: A Primary Attempt to Combat
Instance-Dependent Label Noise [51.66448070984615]
ラベル雑音下での教師付き学習は近年多くの進歩を遂げている。
本論文では,実世界のデータセットにおけるノイズがCCNである可能性は低いことを実証する。
制御可能なインスタンス依存ノイズ(IDN)を生成するアルゴリズムを形式化する。
論文 参考訳(メタデータ) (2020-12-10T05:16:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。