論文の概要: DeepPerform: An Efficient Approach for Performance Testing of
Resource-Constrained Neural Networks
- arxiv url: http://arxiv.org/abs/2210.05370v1
- Date: Mon, 10 Oct 2022 03:50:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 14:44:29.263948
- Title: DeepPerform: An Efficient Approach for Performance Testing of
Resource-Constrained Neural Networks
- Title(参考訳): DeepPerform: リソース制約ニューラルネットワークのパフォーマンステストのための効率的なアプローチ
- Authors: Simin Chen, Mirazul Haque, Cong Liu, Wei Yang
- Abstract要約: リソース制約のある組み込みデバイスでは、AdNN(Adaptive Deep Neural Networks)の数が増えている。
AdNNがリソース制約のあるアプリケーションのパフォーマンス要件を満たすためには、パフォーマンステストを実施することが不可欠である。
既存のニューラルネットワークテスト手法は主に、パフォーマンステストを必要としない正確性テストに関係している。
本稿では,AdNNにおけるIDPBを検出するために,テストサンプルを生成するスケーラブルなアプローチであるDeepPerformを提案する。
- 参考スコア(独自算出の注目度): 8.185330904123374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Today, an increasing number of Adaptive Deep Neural Networks (AdNNs) are
being used on resource-constrained embedded devices. We observe that, similar
to traditional software, redundant computation exists in AdNNs, resulting in
considerable performance degradation. The performance degradation is dependent
on the input and is referred to as input-dependent performance bottlenecks
(IDPBs). To ensure an AdNN satisfies the performance requirements of
resource-constrained applications, it is essential to conduct performance
testing to detect IDPBs in the AdNN. Existing neural network testing methods
are primarily concerned with correctness testing, which does not involve
performance testing. To fill this gap, we propose DeepPerform, a scalable
approach to generate test samples to detect the IDPBs in AdNNs. We first
demonstrate how the problem of generating performance test samples detecting
IDPBs can be formulated as an optimization problem. Following that, we
demonstrate how DeepPerform efficiently handles the optimization problem by
learning and estimating the distribution of AdNNs' computational consumption.
We evaluate DeepPerform on three widely used datasets against five popular AdNN
models. The results show that DeepPerform generates test samples that cause
more severe performance degradation (FLOPs: increase up to 552\%). Furthermore,
DeepPerform is substantially more efficient than the baseline methods in
generating test inputs(runtime overhead: only 6-10 milliseconds).
- Abstract(参考訳): 今日では、リソース制約された組み込みデバイスでAdNN(Adaptive Deep Neural Networks)が増えている。
従来のソフトウェアと同様に、冗長な計算はadnnに存在し、結果としてパフォーマンスが大幅に低下する。
パフォーマンスの低下は入力に依存し、入力依存のパフォーマンスボトルネック(idpbs)と呼ばれる。
AdNNがリソース制約のあるアプリケーションのパフォーマンス要件を満たすためには、AdNN内のIDPBを検出するためにパフォーマンステストを実行することが不可欠である。
既存のニューラルネットワークテスト手法は主に、パフォーマンステストを必要としない正確性テストに関係している。
このギャップを埋めるために,AdNNのIDPBを検出するためのテストサンプルを生成するスケーラブルなアプローチであるDeepPerformを提案する。
まず,IDPBを検出する性能試験の問題を最適化問題として定式化する方法を示す。
次に,adnnの計算量分布を学習し,推定することにより,deepperformが最適化問題を効率的に処理することを示す。
一般的な5つのAdNNモデルに対して,広く使用されている3つのデータセット上でDeepPerformを評価する。
結果は、DeepPerformがより深刻なパフォーマンス劣化(FLOP: up up to 552\%)を引き起こすテストサンプルを生成することを示している。
さらに、deepperformは、テスト入力(実行時のオーバーヘッド:わずか6~10ミリ秒)を生成するベースラインメソッドよりもはるかに効率的である。
関連論文リスト
- DiffGrad for Physics-Informed Neural Networks [0.0]
バーガーズ方程式(英: Burgers' equation)は流体力学の基本方程式であり、PINNで広く用いられている。
本稿では,DiffGradをPINNに組み込むことで,バーガースの方程式を解く新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-05T04:39:35Z) - Search-based DNN Testing and Retraining with GAN-enhanced Simulations [2.362412515574206]
安全クリティカルなシステムでは、ディープニューラルネットワーク(DNN)がコンピュータビジョンタスクの重要なコンポーネントになりつつある。
本稿では,シミュレータを用いて入力空間を探索するメタヒューリスティック検索と,シミュレータが生成したデータをリアルな入力画像に変換するGAN(Generative Adversarial Networks)を組み合わせることを提案する。
論文 参考訳(メタデータ) (2024-06-19T09:05:16Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - QVIP: An ILP-based Formal Verification Approach for Quantized Neural
Networks [14.766917269393865]
量子化は、浮動小数点数に匹敵する精度でニューラルネットワークのサイズを減らすための有望な技術として登場した。
そこで本研究では,QNNに対する新しい,効率的な形式検証手法を提案する。
特に、QNNの検証問題を整数線形制約の解法に還元する符号化を初めて提案する。
論文 参考訳(メタデータ) (2022-12-10T03:00:29Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Bayesian Hyperparameter Optimization for Deep Neural Network-Based
Network Intrusion Detection [2.304713283039168]
侵入検出問題に対してディープニューラルネットワーク(DNN)がうまく適用されている。
本稿では,ハイパーパラメータの自動最適化のための新しいベイズ最適化フレームワークを提案する。
提案手法は,ランダムな探索最適化手法よりも侵入検出性能が高いことを示す。
論文 参考訳(メタデータ) (2022-07-07T20:08:38Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - RoMA: Robust Model Adaptation for Offline Model-based Optimization [115.02677045518692]
入力出力クエリの静的データセットからブラックボックス目的関数を最大化する入力を探索する問題を考える。
この問題を解決するための一般的なアプローチは、真の客観的関数を近似するプロキシモデルを維持することである。
ここでの大きな課題は、検索中に逆最適化された入力を避ける方法である。
論文 参考訳(メタデータ) (2021-10-27T05:37:12Z) - RED++ : Data-Free Pruning of Deep Neural Networks via Input Splitting
and Output Merging [36.027765880474526]
Pruning Deep Neural Networks (DNN) は、推論ランタイムアクセラレーションの目標において、顕著な研究分野である。
本稿では,新しいデータフリープルーニングプロトコルRED++を紹介する。
ハッシュによる精度の保存に関する理論的および実証的な保証について検討する。
論文 参考訳(メタデータ) (2021-09-30T09:31:11Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。