論文の概要: ServeFlow: A Fast-Slow Model Architecture for Network Traffic Analysis
- arxiv url: http://arxiv.org/abs/2402.03694v1
- Date: Tue, 6 Feb 2024 04:28:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 16:45:23.451307
- Title: ServeFlow: A Fast-Slow Model Architecture for Network Traffic Analysis
- Title(参考訳): ServeFlow: ネットワークトラフィック分析のための高速スローモデルアーキテクチャ
- Authors: Shinan Liu, Ted Shaowang, Gerry Wan, Jeewon Chae, Jonatas Marques,
Sanjay Krishnan, Nick Feamster
- Abstract要約: ServeFlowは、ネットワークトラフィック分析タスクを対象とした機械学習モデルのソリューションである。
収集するパケットの数と、個々のフローに適用するモデルを選択して、最小のレイテンシ、高いサービスレート、高い精度のバランスを実現する。
76.3%のフローを16ms以下で推測することが可能であり、これは中央のエンドツーエンドのサービスレイテンシでは40.5倍のスピードアップである。
- 参考スコア(独自算出の注目度): 10.01593085002851
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Network traffic analysis increasingly uses complex machine learning models as
the internet consolidates and traffic gets more encrypted. However, over
high-bandwidth networks, flows can easily arrive faster than model inference
rates. The temporal nature of network flows limits simple scale-out approaches
leveraged in other high-traffic machine learning applications. Accordingly,
this paper presents ServeFlow, a solution for machine-learning model serving
aimed at network traffic analysis tasks, which carefully selects the number of
packets to collect and the models to apply for individual flows to achieve a
balance between minimal latency, high service rate, and high accuracy. We
identify that on the same task, inference time across models can differ by
2.7x-136.3x, while the median inter-packet waiting time is often 6-8 orders of
magnitude higher than the inference time! ServeFlow is able to make inferences
on 76.3% flows in under 16ms, which is a speed-up of 40.5x on the median
end-to-end serving latency while increasing the service rate and maintaining
similar accuracy. Even with thousands of features per flow, it achieves a
service rate of over 48.5k new flows per second on a 16-core CPU commodity
server, which matches the order of magnitude of flow rates observed on
city-level network backbones.
- Abstract(参考訳): インターネットが統合され、トラフィックが暗号化されるにつれて、ネットワークトラフィック分析はますます複雑な機械学習モデルを使用するようになっている。
しかし、高帯域幅ネットワークでは、フローがモデル推論速度よりも早く到達できる。
ネットワークフローの時間的性質は、他の高速機械学習アプリケーションで利用される単純なスケールアウトアプローチを制限する。
そこで本稿では,ネットワークトラフィック分析タスクを対象とした機械学習モデルのServeFlowを提案する。これは,収集するパケットの数と,個々のフローに適用するモデルを選択して,最小レイテンシ,高サービスレート,高精度のバランスを実現する。
同じタスクでは、モデル間の推論時間は2.7x-136.3xで、中央のパッケージ間待機時間は推論時間より6-8桁高いことがよくあります。
ServeFlowは、76.3%のフローを16ms以下で推論することが可能で、これは、サービスレートを高め、同様の精度を維持しながら、中央のエンドツーエンドサービスレイテンシで40.5倍のスピードアップである。
1フローに何千もの機能があるとしても、16コアのcpuコモディティサーバ上で毎秒48.5k以上の新しいフローを処理し、都市レベルのネットワークバックボーンで観測される流量の桁数に合致する。
関連論文リスト
- On the Burstiness of Distributed Machine Learning Traffic [0.0]
本稿では,ResNet-50ニューラルネットワークのトレーニングによって発生する交通特性について検討する。
分析の結果,分散MLトラフィックは短時間で非常に高いバースト性を示すことがわかった。
トレーニングソフトウェアは,同一アプリケーション内の異なるソースからのバースト送信が混雑やパケット損失を生じさせないように,送信をオーケストレーションする。
論文 参考訳(メタデータ) (2023-12-30T21:33:59Z) - Multi-task Learning for Sparse Traffic Forecasting [13.359590890052454]
本稿では,各道路セグメントの混雑クラスと速度を同時に予測できるマルチタスク学習ネットワークを提案する。
提案手法はTraffic4cast Competition 2022で提供されたデータセットにおいて,ソースコードをhttps://github.com/OctopusLi/NeurIPS2022-traffic4castで公開しています。
論文 参考訳(メタデータ) (2022-11-18T02:10:40Z) - Teal: Learning-Accelerated Optimization of WAN Traffic Engineering [89.23404108080585]
本稿では,GPUの並列処理能力を活用してTE制御を高速化する学習型TEアルゴリズムTealを提案する。
問題スケールの削減と学習のトラクタビリティ向上のために,Tealはマルチエージェント強化学習(RL)アルゴリズムを用いて,各トラフィック要求を独立に割り当てる。
他のTE加速方式と比較して、Tealは需要を6~32%増やし、197~625倍のスピードアップを達成している。
論文 参考訳(メタデータ) (2022-10-25T04:46:30Z) - Correlating sparse sensing for large-scale traffic speed estimation: A
Laplacian-enhanced low-rank tensor kriging approach [76.45949280328838]
本稿では,Laplacian enhanced Low-rank tensor (LETC) フレームワークを提案する。
次に,提案したモデルをネットワークワイド・クリグにスケールアップするために,複数の有効な数値手法を用いて効率的な解アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-10-21T07:25:57Z) - Lightweight and Progressively-Scalable Networks for Semantic
Segmentation [100.63114424262234]
マルチスケール学習フレームワークは,セマンティックセグメンテーションを向上する有効なモデルのクラスと見なされてきた。
本稿では,畳み込みブロックの設計と,複数スケールにわたる相互作用の仕方について,徹底的に解析する。
我々は,軽量で拡張性の高いネットワーク(LPS-Net)を考案した。
論文 参考訳(メタデータ) (2022-07-27T16:00:28Z) - Accelerating Training and Inference of Graph Neural Networks with Fast
Sampling and Pipelining [58.10436813430554]
グラフニューラルネットワーク(GNN)のミニバッチトレーニングには、多くの計算とデータ移動が必要である。
我々は,分散マルチGPU環境において,近傍サンプリングを用いたミニバッチトレーニングを行うことを支持する。
本稿では,これらのボトルネックを緩和する一連の改良点について述べる。
また,サンプリングによる推論を支援する実験分析を行い,試験精度が実質的に損なわれていないことを示す。
論文 参考訳(メタデータ) (2021-10-16T02:41:35Z) - Traffic Flow Forecasting with Maintenance Downtime via Multi-Channel
Attention-Based Spatio-Temporal Graph Convolutional Networks [4.318655493189584]
建設工事の影響下での交通速度予測モデルを提案する。
このモデルは、強力なアテンションベースの時間グラフ畳み込みアーキテクチャに基づいているが、様々なチャネルを利用して異なる情報ソースを統合する。
このモデルは、2つのベンチマークデータセットと、北バージニアの散らかった道路の角で収集した新しいデータセットで評価されている。
論文 参考訳(メタデータ) (2021-10-04T16:07:37Z) - Road Network Guided Fine-Grained Urban Traffic Flow Inference [108.64631590347352]
粗いトラフィックからのきめ細かなトラフィックフローの正確な推測は、新たな重要な問題である。
本稿では,道路ネットワークの知識を活かした新しい道路対応交通流磁化器(RATFM)を提案する。
提案手法は,高品質なトラフィックフローマップを作成できる。
論文 参考訳(メタデータ) (2021-09-29T07:51:49Z) - TrafficStream: A Streaming Traffic Flow Forecasting Framework Based on
Graph Neural Networks and Continual Learning [10.205873494981633]
グラフニューラルネットワーク(GNN)と連続学習(CL)に基づくストリームトラフィックフロー予測フレームワークであるTrafficStreamを提案する。
新たなトラフィックパターンをマイニングするために,JS-divergence に基づくアルゴリズムを提案する。
モデルの有効性と有効性を検証するために,ストリーミングトラフィックデータセットを構築した。
論文 参考訳(メタデータ) (2021-06-11T09:42:37Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Short-Term Flow-Based Bandwidth Forecasting using Machine Learning [2.4087148947930634]
本稿では,交通流の帯域幅を事前に予測するための新しい枠組みを提案する。
パケットを実生活のトラフィックから関連する機能を含むフローに変換する。
決定木、ランダムフォレスト、XGBoost、Deep Neural Networkを含む機械学習モデルは、このデータに基づいてトレーニングされている。
論文 参考訳(メタデータ) (2020-11-29T19:06:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。