論文の概要: Network Calculus with Flow Prolongation -- A Feedforward FIFO Analysis
enabled by ML
- arxiv url: http://arxiv.org/abs/2202.03004v1
- Date: Mon, 7 Feb 2022 08:46:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 18:17:23.075291
- Title: Network Calculus with Flow Prolongation -- A Feedforward FIFO Analysis
enabled by ML
- Title(参考訳): フロー延長を伴うネットワーク計算-MLによるフィードフォワードFIFO解析
- Authors: Fabien Geyer and Alexander Scheffler and Steffen Bondorf
- Abstract要約: Flow Prolongation (FP) は遅延境界精度を大幅に改善することが示されている。
本稿では,機械学習を用いて拡張を予測することによって,FPをスケールするアプローチであるDeepFPを紹介する。
DeepFPは計算コストを無視して平均12.1%削減する。
- 参考スコア(独自算出の注目度): 73.11023209243326
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The derivation of upper bounds on data flows' worst-case traversal times is
an important task in many application areas. For accurate bounds, model
simplifications should be avoided even in large networks. Network Calculus (NC)
provides a modeling framework and different analyses for delay bounding. We
investigate the analysis of feedforward networks where all queues implement
First-In First-Out (FIFO) service. Correctly considering the effect of data
flows onto each other under FIFO is already a challenging task. Yet, the
fastest available NC FIFO analysis suffers from limitations resulting in
unnecessarily loose bounds. A feature called Flow Prolongation (FP) has been
shown to improve delay bound accuracy significantly. Unfortunately, FP needs to
be executed within the NC FIFO analysis very often and each time it creates an
exponentially growing set of alternative networks with prolongations. FP
therefore does not scale and has been out of reach for the exhaustive analysis
of large networks. We introduce DeepFP, an approach to make FP scale by
predicting prolongations using machine learning. In our evaluation, we show
that DeepFP can improve results in FIFO networks considerably. Compared to the
standard NC FIFO analysis, DeepFP reduces delay bounds by 12.1% on average at
negligible additional computational cost.
- Abstract(参考訳): データフローの最悪ケーストラバーサル時間における上限の導出は、多くのアプリケーション領域で重要なタスクである。
正確な境界については、大規模ネットワークにおいてもモデル単純化は避けるべきである。
ネットワーク計算(nc)は、遅延境界のモデリングフレームワークと異なる解析を提供する。
すべてのキューがファーストインファーストアウト(fifo)サービスを実装するfeedforwardネットワークの解析について検討する。
FIFOの下でのデータフローの影響を正しく考慮することは、すでに難しい課題である。
しかし、最も速いNC FIFO分析は、不必要に緩い境界をもたらす制限に悩まされている。
Flow Prolongation (FP)と呼ばれる機能は、遅延境界精度を大幅に改善する。
残念ながら、fp は nc fifo 分析内で非常に頻繁に実行される必要があり、そのたびに伸長を伴う指数関数的に増加する別のネットワーク群を生成する。
したがって、FPはスケールせず、大規模ネットワークの網羅的な分析には及ばない。
本稿では,機械学習を用いて拡張を予測することによって,FPをスケールするアプローチであるDeepFPを紹介する。
評価の結果,DeepFPはFIFOネットワークの処理結果を大幅に改善できることがわかった。
標準のNC FIFO解析と比較すると、DeepFPは計算コストを無視できる平均12.1%削減する。
関連論文リスト
- Information Consistent Pruning: How to Efficiently Search for Sparse Networks? [5.524804393257921]
反復等級プルーニング法(IMP)は、ディープニューラルネットワーク(DNN)における重要なノード数を減らすことに成功している。
プルーニングネットワークにおけるIMPの人気にもかかわらず、既存のIMPアルゴリズムの基本的な制限は、各プルーニング勾配に必要なトレーニング時間である。
本稿では,ネットワーク層間の情報やフローをモニタし,トレーニング時間を最小化するIMPのための新しいテキストトッピング基準を提案する。
論文 参考訳(メタデータ) (2025-01-26T16:40:59Z) - ATHEENA: A Toolflow for Hardware Early-Exit Network Automation [11.623574576259859]
ATHEENA (Aware Early-Exit Network Automation) のためのツールフロー
このようなネットワークから早期に抜け出すサンプルの確率を利用して、ネットワークの異なるセクションに割り当てられたリソースをスケールするツールフロー。
論文 参考訳(メタデータ) (2023-04-17T16:06:58Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - Receptive Field-based Segmentation for Distributed CNN Inference
Acceleration in Collaborative Edge Computing [93.67044879636093]
協調エッジコンピューティングネットワークにおける分散畳み込みニューラルネットワーク(CNN)を用いた推論高速化について検討する。
我々は,CNNモデルを複数の畳み込み層に分割するために,融合層並列化を用いた新しい協調エッジコンピューティングを提案する。
論文 参考訳(メタデータ) (2022-07-22T18:38:11Z) - OFedQIT: Communication-Efficient Online Federated Learning via
Quantization and Intermittent Transmission [7.6058140480517356]
オンライン連合学習(OFL)は、分散ストリーミングデータから非線形関数(またはモデル)のシーケンスを協調的に学習する、有望なフレームワークである。
本稿では、量子化と断続伝送を用いた通信効率の高いOFLアルゴリズム(OFedQIT)を提案する。
分析の結果,OfedQITは優れた学習精度を維持しつつ,OfedAvgの欠点に対処できることがわかった。
論文 参考訳(メタデータ) (2022-05-13T07:46:43Z) - CPNet: Cross-Parallel Network for Efficient Anomaly Detection [20.84973451610082]
ここでは、性能低下を伴わない計算を最小化するために、効率的な異常検出のためのクロスパラレルネットワーク(CPNet)を提案する。
ネットワーク間シフトモジュールは、シーケンシャルフレーム間の時間的関係をキャプチャして、より正確な将来の予測を可能にする。
論文 参考訳(メタデータ) (2021-08-10T05:29:37Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - Fast Fourier Intrinsic Network [41.95712986029093]
本稿ではスペクトル領域で動作する高速フーリエ固有ネットワークFFI-Netを提案する。
FFI-Netの重みはスペクトル領域で最適化されており、より高速な収束を可能にする。
MPI-Sintel、MIT Intrinsic、IIWデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-11-09T18:14:39Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。