論文の概要: Simple Techniques Work Surprisingly Well for Neural Network Test
Prioritization and Active Learning (Replicability Study)
- arxiv url: http://arxiv.org/abs/2205.00664v1
- Date: Mon, 2 May 2022 05:47:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 13:53:29.074170
- Title: Simple Techniques Work Surprisingly Well for Neural Network Test
Prioritization and Active Learning (Replicability Study)
- Title(参考訳): ニューラルネットワークテストの優先順位付けとアクティブラーニングのための単純な手法(再現性の検討)
- Authors: Michael Weiss and Paolo Tonella
- Abstract要約: ディープニューラルネットワーク(DNN)のTIP(Test Input Prioritizers)は、一般的に非常に大規模なテストデータセットを効率的に処理するための重要なテクニックである。
Fengらは、非常に高速でシンプルなTIPであるDeepGiniを提案し、ニューロンやサプライズカバレッジのようなより精巧な技術よりも優れていることを示した。
- 参考スコア(独自算出の注目度): 4.987581730476023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Test Input Prioritizers (TIP) for Deep Neural Networks (DNN) are an important
technique to handle the typically very large test datasets efficiently, saving
computation and labeling costs. This is particularly true for large-scale,
deployed systems, where inputs observed in production are recorded to serve as
potential test or training data for the next versions of the system. Feng et.
al. propose DeepGini, a very fast and simple TIP, and show that it outperforms
more elaborate techniques such as neuron- and surprise coverage. In a
large-scale study (4 case studies, 8 test datasets, 32'200 trained models) we
verify their findings. However, we also find that other comparable or even
simpler baselines from the field of uncertainty quantification, such as the
predicted softmax likelihood or the entropy of the predicted softmax
likelihoods perform equally well as DeepGini.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)のためのTIP(Test Input Prioritizers)は、一般的に非常に大規模なテストデータセットを効率的に処理し、計算とラベリングコストを節約する重要なテクニックである。
これは大規模にデプロイされたシステムでは特に当てはまり、本番環境で観測された入力が記録され、システムの次期バージョンに対する潜在的なテストやトレーニングデータとして機能する。
fengら。
al.は、非常に高速でシンプルなTIPであるDeepGiniを提案し、ニューロンやサプライズカバレッジのようなより精巧な技術よりも優れていることを示した。
大規模研究(4つのケーススタディ、8つのテストデータセット、32'200のトレーニングモデル)において、これらの発見を検証する。
しかし、予測ソフトマックス確率や予測ソフトマックス確率のエントロピーのような不確実量化の分野から得られる他の同等あるいはより単純な基底線は、DeepGiniと同等に機能する。
関連論文リスト
- NIDS Neural Networks Using Sliding Time Window Data Processing with Trainable Activations and its Generalization Capability [0.0]
本稿では,ネットワーク侵入検知システム(NIDS)のためのニューラルネットワークについて述べる。
ディープパケットインスペクションに頼らず、ほとんどのNIDSデータセットで見つからず、従来のフローコレクタから簡単に取得できる11の機能しか必要としない。
報告されたトレーニング精度は、提案手法の99%を超え、ニューラルネットワークの入力特性は20に満たない。
論文 参考訳(メタデータ) (2024-10-24T11:36:19Z) - Unrolled denoising networks provably learn optimal Bayesian inference [54.79172096306631]
我々は、近似メッセージパッシング(AMP)のアンロールに基づくニューラルネットワークの最初の厳密な学習保証を証明した。
圧縮センシングでは、製品から引き出されたデータに基づいてトレーニングを行うと、ネットワークの層がベイズAMPで使用されるのと同じデノイザーに収束することを示す。
論文 参考訳(メタデータ) (2024-09-19T17:56:16Z) - Rethinking Deep Learning: Propagating Information in Neural Networks without Backpropagation and Statistical Optimization [0.0]
本研究では,構造を模倣するニューラルネットワークとして,情報伝達機能とNNの応用の可能性について論じる。
本研究では,段差関数をアクティベーション関数として使用し,0~15層を隠蔽し,重み更新を行わない完全連結層からなるNNSアーキテクチャを提案する。
ラベル毎のトレーニングデータの平均出力ベクトルとテストデータの出力ベクトルをベクトル類似度に基づいて比較して精度を算出する。
論文 参考訳(メタデータ) (2024-08-18T09:22:24Z) - Bayesian Neural Networks with Domain Knowledge Priors [52.80929437592308]
ドメイン知識の一般的な形式をBNNに組み込むためのフレームワークを提案する。
提案したドメイン知識を用いたBNNは,標準知識のBNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-20T22:34:53Z) - Inferring Data Preconditions from Deep Learning Models for Trustworthy
Prediction in Deployment [25.527665632625627]
デプロイ中に見つからないデータを使って、モデルの予測の信頼性を判断することが重要です。
従来のソフトウェアを特定し検証する既存の方法は、このタスクには不十分である。
本稿では、ニューラルネットワーク計算から導出されるルールを用いて、データ前提条件を推論する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T03:47:18Z) - Data Augmentations in Deep Weight Spaces [89.45272760013928]
そこで本研究では,Mixup法に基づく新しい拡張手法を提案する。
既存のベンチマークと新しいベンチマークでこれらのテクニックのパフォーマンスを評価する。
論文 参考訳(メタデータ) (2023-11-15T10:43:13Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - DeepTPI: Test Point Insertion with Deep Reinforcement Learning [6.357061090668433]
テストポイント挿入(TPI)は、テスト容易性向上のための広く使われている技術である。
深部強化学習(DRL)に基づく新しいTPI手法であるDeepTPIを提案する。
市販のDFTツールと比較して,DeepTPIはテストカバレッジを著しく改善することがわかった。
論文 参考訳(メタデータ) (2022-06-07T14:13:42Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - EagerNet: Early Predictions of Neural Networks for Computationally
Efficient Intrusion Detection [2.223733768286313]
最小限のリソースでネットワーク攻撃を検出するアーキテクチャを提案する。
アーキテクチャはバイナリまたはマルチクラスの分類問題に対処でき、ネットワークの精度を予測速度と交換できる。
論文 参考訳(メタデータ) (2020-07-27T11:31:37Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。