論文の概要: Neural Network-based Quantization for Network Automation
- arxiv url: http://arxiv.org/abs/2103.04764v1
- Date: Thu, 4 Mar 2021 11:41:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:26:42.954413
- Title: Neural Network-based Quantization for Network Automation
- Title(参考訳): ニューラルネットワークに基づくネットワーク自動化のための量子化
- Authors: Marton Kajo, Stephen S. Mwanje, Benedek Schultz, Georg Carle
- Abstract要約: k-Meansアルゴリズムの修正であるBounding Sphere Quantization (BSQ)アルゴリズムを導入し、特定のネットワーク管理ユースケースの量子化を改善することを示した。
BSQは、ニューラルネットワークベースの実装で克服できる課題であるk-Meansよりもトレーニングにかなり長い時間を要しました。
本稿では,最先端のディープラーニングツールを用いて,競争力のあるトレーニング速度を実現するBSQの実装を提案する。
- 参考スコア(独自算出の注目度): 0.7034976835586089
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Learning methods have been adopted in mobile networks, especially for
network management automation where they provide means for advanced machine
cognition. Deep learning methods utilize cutting-edge hardware and software
tools, allowing complex cognitive algorithms to be developed. In a recent
paper, we introduced the Bounding Sphere Quantization (BSQ) algorithm, a
modification of the k-Means algorithm, that was shown to create better
quantizations for certain network management use-cases, such as anomaly
detection. However, BSQ required a significantly longer time to train than
k-Means, a challenge which can be overcome with a neural network-based
implementation. In this paper, we present such an implementation of BSQ that
utilizes state-of-the-art deep learning tools to achieve a competitive training
speed.
- Abstract(参考訳): ディープラーニング手法はモバイルネットワーク、特に高度なマシン認知のための手段を提供するネットワーク管理自動化に採用されている。
ディープラーニング手法は最先端のハードウェアとソフトウェアツールを使用し、複雑な認知アルゴリズムを開発できる。
最近の論文では,k-Meansアルゴリズムの修正であるBunding Sphere Quantization (BSQ)アルゴリズムを導入し,異常検出などの特定のネットワーク管理ユースケースに対して,より優れた量子化を実現することを示した。
しかし、BSQはk-Meansよりもトレーニングにかなり長い時間を要し、ニューラルネットワークベースの実装で克服できる課題である。
本稿では,最先端のディープラーニングツールを用いて,競争力のあるトレーニング速度を実現するBSQの実装を提案する。
関連論文リスト
- Constraint Guided Model Quantization of Neural Networks [0.0]
Constraint Guided Model Quantization (CGMQ) は、計算資源の上限を使い、ニューラルネットワークのパラメータのビット幅を削減する量子化対応トレーニングアルゴリズムである。
MNISTでは、CGMQの性能が最先端の量子化対応トレーニングアルゴリズムと競合していることが示されている。
論文 参考訳(メタデータ) (2024-09-30T09:41:16Z) - CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - Deep Learning Algorithms Used in Intrusion Detection Systems -- A Review [0.0]
本稿では,CNN,Recurrent Neural Networks(RNN),Deep Belief Networks(DBN),Deep Neural Networks(DNN),Long Short-Term Memory(LSTM),Autoencoders(AE),Multi-Layer Perceptrons(MLP),Self-Normalizing Networks(SNN),Hybrid Model(ネットワーク侵入検知システム)など,近年のディープラーニング技術の進歩について述べる。
論文 参考訳(メタデータ) (2024-02-26T20:57:35Z) - Quantization-aware Neural Architectural Search for Intrusion Detection [5.010685611319813]
本稿では、最先端NNの1000倍の規模を持つ量子化ニューラルネットワーク(NN)モデルを自動的に訓練し、進化させる設計手法を提案する。
FPGAにデプロイする際にこのネットワークが利用するLUTの数は2.3倍から8.5倍と小さく、性能は以前の作業に匹敵する。
論文 参考訳(メタデータ) (2023-11-07T18:35:29Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Uncertainty Quantification and Resource-Demanding Computer Vision
Applications of Deep Learning [5.130440339897478]
ディープニューラルネットワーク(DNN)を安全クリティカルなアプリケーションに導入するには、モデルの不確実性を徹底的に扱う必要がある。
本稿では、新しいオブジェクトクラスに遭遇したとき、DNNに不確実性を示す方法について調査する。
また、不確実性定量化の助けを借りて、少数のラベルから学習する訓練方法を提案する。
論文 参考訳(メタデータ) (2022-05-30T08:31:03Z) - Semi-supervised Network Embedding with Differentiable Deep Quantisation [81.49184987430333]
我々はネットワーク埋め込みのための微分可能な量子化法であるd-SNEQを開発した。
d-SNEQは、学習された量子化符号にリッチな高次情報を与えるためにランク損失を組み込む。
トレーニング済みの埋め込みのサイズを大幅に圧縮できるため、ストレージのフットプリントが減少し、検索速度が向上する。
論文 参考訳(メタデータ) (2021-08-20T11:53:05Z) - Credit Assignment in Neural Networks through Deep Feedback Control [59.14935871979047]
ディープフィードバックコントロール(Deep Feedback Control, DFC)は、フィードバックコントローラを使用して、望ましい出力ターゲットにマッチするディープニューラルネットワークを駆動し、クレジット割り当てに制御信号を使用する新しい学習方法である。
学習規則は空間と時間において完全に局所的であり、幅広い接続パターンに対するガウス・ニュートンの最適化を近似する。
さらに,DFCと皮質錐体ニューロンのマルチコンパートメントモデルと,局所的な電圧依存性のシナプス可塑性規則を関連づける。
論文 参考訳(メタデータ) (2021-06-15T05:30:17Z) - Stochastic Markov Gradient Descent and Training Low-Bit Neural Networks [77.34726150561087]
本稿では,量子化ニューラルネットワークのトレーニングに適用可能な離散最適化手法であるGradient Markov Descent (SMGD)を紹介する。
アルゴリズム性能の理論的保証と数値的な結果の促進を提供する。
論文 参考訳(メタデータ) (2020-08-25T15:48:15Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。