論文の概要: Partial Weight Adaptation for Robust DNN Inference
- arxiv url: http://arxiv.org/abs/2003.06131v1
- Date: Fri, 13 Mar 2020 06:25:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 02:06:58.203430
- Title: Partial Weight Adaptation for Robust DNN Inference
- Title(参考訳): ロバストDNN推論のための部分重み適応
- Authors: Xiufeng Xie, Kyu-Han Kim
- Abstract要約: 異種入力に対応する適応型推論アーキテクチャであるGearNNを提案する。
GearNNは、歪みのないデータセットでトレーニングされたDNNに対して平均18.12%、Googleからの安定性トレーニングに対して4.84%の精度(mIoU)を改善する。
- 参考スコア(独自算出の注目度): 9.301756947410773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mainstream video analytics uses a pre-trained DNN model with an assumption
that inference input and training data follow the same probability
distribution. However, this assumption does not always hold in the wild:
autonomous vehicles may capture video with varying brightness; unstable
wireless bandwidth calls for adaptive bitrate streaming of video; and,
inference servers may serve inputs from heterogeneous IoT devices/cameras. In
such situations, the level of input distortion changes rapidly, thus reshaping
the probability distribution of the input.
We present GearNN, an adaptive inference architecture that accommodates
heterogeneous DNN inputs. GearNN employs an optimization algorithm to identify
a small set of "distortion-sensitive" DNN parameters, given a memory budget.
Based on the distortion level of the input, GearNN then adapts only the
distortion-sensitive parameters, while reusing the rest of constant parameters
across all input qualities. In our evaluation of DNN inference with dynamic
input distortions, GearNN improves the accuracy (mIoU) by an average of 18.12%
over a DNN trained with the undistorted dataset and 4.84% over stability
training from Google, with only 1.8% extra memory overhead.
- Abstract(参考訳): ストリームビデオ分析では、推論入力とトレーニングデータが同じ確率分布に従うと仮定して、事前訓練されたDNNモデルを使用する。
自動運転車は、様々な明るさでビデオをキャプチャし、不安定な無線帯域幅でビデオの適応ビットレートストリーミングを呼び出し、推論サーバは異機種のIoTデバイス/カメラからの入力を提供する。
このような場合、入力歪みのレベルは急速に変化し、入力の確率分布が変化する。
異種DNN入力に対応する適応型推論アーキテクチャであるGearNNを提案する。
GearNNはメモリ予算に応じて、小さな「歪みに敏感な」DNNパラメータのセットを特定する最適化アルゴリズムを採用している。
入力の歪みレベルに基づいて、GearNNは歪みに敏感なパラメータのみを適応させ、残りの定数パラメータを全ての入力品質で再利用する。
動的入力歪みを伴うDNN推論の評価では、GearNNは、非歪データセットでトレーニングされたDNNに対して平均18.12%、Googleからの安定性トレーニングで4.84%、メモリオーバーヘッドがわずか1.8%の精度(mIoU)を改善する。
関連論文リスト
- Knowing When to Stop: Delay-Adaptive Spiking Neural Network Classifiers with Reliability Guarantees [36.14499894307206]
スパイキングニューラルネットワーク(SNN)は、内部イベント駆動型ニューラルネットワークを通じて時系列データを処理する。
本稿では,入力依存停止時に発生する決定に対して,信頼性を保証する新しい遅延適応型SNNベースの推論手法を提案する。
論文 参考訳(メタデータ) (2023-05-18T22:11:04Z) - Attention-based Feature Compression for CNN Inference Offloading in Edge
Computing [93.67044879636093]
本稿では,デバイスエッジ共振器におけるCNN推論の計算負荷について検討する。
エンドデバイスにおける効率的な特徴抽出のための新しいオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
実験の結果、AECNNは中間データを約4%の精度で256倍圧縮できることがわかった。
論文 参考訳(メタデータ) (2022-11-24T18:10:01Z) - A Low-Complexity Approach to Rate-Distortion Optimized Variable Bit-Rate
Compression for Split DNN Computing [5.3221129103999125]
分散コンピューティングは、DNNベースのAIワークロードを実装するための最近のパラダイムとして登場した。
本稿では,レート・精度・複雑さのトレードオフを最適化する上での課題に対処するアプローチを提案する。
我々のアプローチは、トレーニングと推論の両方において非常に軽量であり、非常に効果的であり、高い速度歪曲性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T15:02:11Z) - Benchmarking Test-Time Unsupervised Deep Neural Network Adaptation on
Edge Devices [19.335535517714703]
エッジへの展開後のディープニューラルネットワーク(DNN)の予測精度は、新しいデータの分布の変化によって、時間とともに低下する可能性がある。
バッチ正規化パラメータを再調整することにより、ノイズデータに対するモデルの予測精度を向上させるため、近年の予測時間非教師なしDNN適応技術が導入されている。
本論文は, 各種エッジデバイスの性能とエネルギーを定量化するために, この種の技術に関する総合的な研究を初めて行ったものである。
論文 参考訳(メタデータ) (2022-03-21T19:10:40Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - TaxoNN: A Light-Weight Accelerator for Deep Neural Network Training [2.5025363034899732]
本稿では,SGDアルゴリズムを単純な計算要素に分割することで,ベースラインDNNアクセラレータ(推論のみ)にトレーニング能力を付加する手法を提案する。
DNNトレーニングのための軽量加速器であるTaxoNNを提案する。
実験の結果,TaxoNNは実精度よりも平均0.97%,誤分類率が高いことがわかった。
論文 参考訳(メタデータ) (2020-10-11T09:04:19Z) - DIET-SNN: Direct Input Encoding With Leakage and Threshold Optimization
in Deep Spiking Neural Networks [8.746046482977434]
DIET-SNNは、膜漏れと発射閾値を最適化するために勾配降下で訓練された低深さスパイクネットワークである。
我々は,VGGおよびResNetアーキテクチャ上のCIFARおよびImageNetデータセットから画像分類タスクのDIET-SNNを評価する。
我々は、ImageNetデータセット上の5つのタイムステップ(推論レイテンシ)でトップ1の精度を69%達成し、同等の標準ANNよりも12倍少ない計算エネルギーを実現した。
論文 参考訳(メタデータ) (2020-08-09T05:07:17Z) - Bayesian Graph Neural Networks with Adaptive Connection Sampling [62.51689735630133]
グラフニューラルネットワーク(GNN)における適応接続サンプリングのための統一的なフレームワークを提案する。
提案フレームワークは,深部GNNの過度なスムース化や過度に適合する傾向を緩和するだけでなく,グラフ解析タスクにおけるGNNによる不確実性の学習を可能にする。
論文 参考訳(メタデータ) (2020-06-07T07:06:35Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。