論文の概要: Technical Report: NEMO DNN Quantization for Deployment Model
- arxiv url: http://arxiv.org/abs/2004.05930v1
- Date: Mon, 13 Apr 2020 13:23:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 23:00:06.303955
- Title: Technical Report: NEMO DNN Quantization for Deployment Model
- Title(参考訳): NEMO DNNによる展開モデルの量子化
- Authors: Francesco Conti
- Abstract要約: 本稿では,ディープニューラルネットワーク(DNN)層量子化のための形式的フレームワークを定義することを目的とする。
NEMO(Neural Minimization for pytOrch)フレームワークのドキュメントとしても機能する。
- 参考スコア(独自算出の注目度): 1.107293908356318
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This technical report aims at defining a formal framework for Deep Neural
Network (DNN) layer-wise quantization, focusing in particular on the problems
related to the final deployment. It also acts as a documentation for the NEMO
(NEural Minimization for pytOrch) framework. It describes the four DNN
representations used in NEMO (FullPrecision, FakeQuantized, QuantizedDeployable
and IntegerDeployable), focusing in particular on a formal definition of the
latter two. An important feature of this model, and in particular the
IntegerDeployable representation, is that it enables DNN inference using purely
integers - without resorting to real-valued numbers in any part of the
computation and without relying on an explicit fixed-point numerical
representation.
- Abstract(参考訳): この技術レポートは、Deep Neural Network(DNN)層量子化のための正式なフレームワークを定義することを目的としており、特に最終デプロイメントに関連する問題に焦点を当てている。
NEMO(Neural Minimization for pytOrch)フレームワークのドキュメントとしても機能する。
nemoで使われる4つのdnn表現(fullprecision、fakequantized、quntizeddeployable、integerdeployable)は、特に後者の2つを形式的に定義することに焦点を当てている。
このモデルの重要な特徴、特にIntegerDeployable表現は、純粋に整数を使ったDNN推論を可能にすることである。
関連論文リスト
- Two Heads are Better Than One: Neural Networks Quantization with 2D Hilbert Curve-based Output Representation [3.4606942690643336]
本稿では,DNNの出力の冗長表現を用いた新しいDNN量子化手法を提案する。
このマッピングにより量子化誤差を低減できることを示す。
我々のアプローチはセグメンテーション、オブジェクト検出、キーポイント予測など他のタスクにも適用できる。
論文 参考訳(メタデータ) (2024-05-22T21:59:46Z) - Incremental Verification of Neural Networks [3.9661031279983896]
本稿では,新しい理論,データ構造,アルゴリズムの設計に基づく,インクリメンタルかつ完全なDNN検証のための新しい汎用フレームワークを提案する。
我々の貢献はIVANというツールに実装され、MNISTとCIFAR10の分類に挑戦する上での全体的な幾何平均スピードアップの2.4倍、最先端のベースライン上でのACAS-XU分類器の幾何平均スピードアップの3.8倍となる。
論文 参考訳(メタデータ) (2023-04-04T15:28:22Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - A Survey of Quantization Methods for Efficient Neural Network Inference [75.55159744950859]
量子化は、必要なビット数を最小限に抑えるために、固定された離散数の集合に連続実数値を分散する問題である。
近年、コンピュータビジョン、自然言語処理、関連分野でのニューラルネットワークモデルの顕著な性能のために最前線に達しています。
浮動小数点表現から4ビット以下の低精度固定整数値への移行は、メモリフットプリントとレイテンシを16倍削減する可能性を秘めている。
論文 参考訳(メタデータ) (2021-03-25T06:57:11Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Incorporating Interpretable Output Constraints in Bayesian Neural
Networks [34.103445420814644]
出力制約付きBNN(OC-BNN)は不確実性定量化のためのベイズフレームワークと完全に一致している。
我々は、医療、刑事司法、信用スコアなどの複数の領域にまたがる実世界のデータセットに対するOC-BNNの有効性を実証する。
論文 参考訳(メタデータ) (2020-10-21T13:00:05Z) - Chance-Constrained Control with Lexicographic Deep Reinforcement
Learning [77.34726150561087]
本稿では,レキシックなDeep Reinforcement Learning(DeepRL)に基づく確率制約マルコフ決定プロセスを提案する。
有名なDeepRLアルゴリズムDQNの辞書版も提案され、シミュレーションによって検証されている。
論文 参考訳(メタデータ) (2020-10-19T13:09:14Z) - Continuous Safety Verification of Neural Networks [1.7056768055368385]
本稿では,前回のDNN安全検証問題から修正問題設定への移行結果のアプローチについて考察する。
全体的な概念は、認識された画像から視覚的方向を決定するために、DNNコントローラを装備する1/10ドルのスケールで評価される。
論文 参考訳(メタデータ) (2020-10-12T13:28:04Z) - Attentive Graph Neural Networks for Few-Shot Learning [74.01069516079379]
グラフニューラルネットワーク(GNN)は、数ショットの学習タスクを含む多くの困難なアプリケーションにおいて、優れたパフォーマンスを示している。
少数のサンプルからモデルを学習し、一般化する能力があるにもかかわらず、GNNは通常、モデルが深くなるにつれて、過度な過度な適合と過度なスムーシングに悩まされる。
本稿では,三重注意機構を組み込むことにより,これらの課題に対処するための新しい注意型GNNを提案する。
論文 参考訳(メタデータ) (2020-07-14T07:43:09Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。