論文の概要: FENXI: Deep-learning Traffic Analytics at the Edge
- arxiv url: http://arxiv.org/abs/2105.11738v1
- Date: Tue, 25 May 2021 08:02:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-26 13:57:52.600987
- Title: FENXI: Deep-learning Traffic Analytics at the Edge
- Title(参考訳): FENXI: エッジでのディープラーニングトラフィック分析
- Authors: Massimo Gallo, Alessandro Finamore, Gwendal Simon, and Dario Rossi
- Abstract要約: 本稿では,TPUを利用して複雑な解析を行うシステムであるFENXIを提案する。
FENXIは、さまざまな粒度で動作するオペレーションとトラフィック分析を分離する。
分析の結果,FENXIは限られた資源しか必要とせず,転送ラインレートのトラヒック処理を継続できることがわかった。
- 参考スコア(独自算出の注目度): 69.34903175081284
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Live traffic analysis at the first aggregation point in the ISP network
enables the implementation of complex traffic engineering policies but is
limited by the scarce processing capabilities, especially for Deep Learning
(DL) based analytics. The introduction of specialized hardware accelerators
i.e., Tensor Processing Unit (TPU), offers the opportunity to enhance the
processing capabilities of network devices at the edge. Yet, to date, no packet
processing pipeline is capable of offering DL-based analysis capabilities in
the data-plane, without interfering with network operations.
In this paper, we present FENXI, a system to run complex analytics by
leveraging TPU. The design of FENXI decouples forwarding operations and traffic
analytics which operates at different granularities i.e., packet and flow
levels. We conceive two independent modules that asynchronously communicate to
exchange network data and analytics results, and design data structures to
extract flow level statistics without impacting per-packet processing. We
prototyped and evaluated FENXI on general-purpose servers considering both
adversarial and realistic network conditions. Our analysis shows that FENXI can
sustain 100 Gbps line rate traffic processing requiring only limited resources,
while also dynamically adapting to variable network conditions.
- Abstract(参考訳): ISPネットワークの最初のアグリゲーションポイントにおけるライブトラフィック分析は、複雑なトラフィックエンジニアリングポリシーの実装を可能にするが、特にディープラーニング(DL)ベースの分析において、処理能力の不足によって制限される。
特別なハードウェアアクセラレーター、すなわちテンソル処理ユニット(tpu)の導入は、エッジにおけるネットワークデバイスの処理能力を向上させる機会を提供する。
しかし、これまでパケット処理パイプラインは、ネットワーク操作に干渉することなく、データプレーンにdlベースの分析機能を提供することができない。
本稿では,TPUを利用して複雑な解析を行うシステムであるFENXIを提案する。
FENXIの設計は、転送操作とトラフィック分析を分離し、パケットとフローのレベルで異なる粒度で動作する。
ネットワークデータと分析結果の交換に非同期に通信する2つの独立したモジュールを考案し、パケット単位の処理に影響を与えることなく、フローレベルの統計を抽出するデータ構造を設計する。
敵ネットワーク条件と現実ネットワーク条件の両方を考慮した汎用サーバ上でFENXIを試作・評価した。
解析の結果、FENXIは、限られたリソースのみを必要とする100Gbpsの回線レートトラフィック処理を維持でき、かつ、可変ネットワーク条件に動的に適応できることがわかった。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Brain-on-Switch: Towards Advanced Intelligent Network Data Plane via NN-Driven Traffic Analysis at Line-Speed [33.455302442142994]
プログラム可能なネットワークは、ラインスピードで学習に基づくトラフィック分析を実現するIntelligent Network Data Plane (INDP) に大きな研究を巻き起こした。
INDPの以前の技術は、データプレーンにツリー/フォレストモデルをデプロイすることに焦点を当てていた。
本稿では,ニューラルネットワーク(NN)によるトラフィック解析を回線速度で実現することにより,INDPの境界を押し上げるBoSを提案する。
論文 参考訳(メタデータ) (2024-03-17T04:59:30Z) - Device Sampling and Resource Optimization for Federated Learning in
Cooperative Edge Networks [18.922600578474345]
フェデレーテッド・ラーニング(FedL)は、サーバによって定期的に集約されたローカルモデルをトレーニングすることで、機械学習(ML)をワーカーデバイスに分散させる。
FedLは、同時代の無線ネットワークの2つの重要な特徴を無視している: (i) ネットワークには異種通信/計算資源が含まれており、 (ii) デバイスのローカルデータ分布にかなりの重複がある可能性がある。
デバイス間オフロード(D2D)によって補完されるインテリジェントデバイスサンプリングにより,これらの要因を共同で考慮する新しい最適化手法を開発した。
論文 参考訳(メタデータ) (2023-11-07T21:17:59Z) - Traffic Analytics Development Kits (TADK): Enable Real-Time AI Inference
in Networking Apps [9.466597453619976]
本稿では,AIベースのネットワーク処理に特化した業界標準フレームワークであるTraffic Analytics Development Kits (TADK)の設計について述べる。
TADKは、特別なハードウェアを必要とせずに、データセンターからエッジへのネットワーク機器のリアルタイムAIベースのネットワークワークロード処理を提供する。
市販のWAFおよび5G UPFにTADKをデプロイし,評価結果から,TADKはコアあたり35.3Gbpsのスループットを達成できることがわかった。
論文 参考訳(メタデータ) (2022-08-16T06:23:41Z) - Distributed intelligence on the Edge-to-Cloud Continuum: A systematic
literature review [62.997667081978825]
このレビューは、現在利用可能な機械学習とデータ分析のための最先端ライブラリとフレームワークに関する包括的なビジョンを提供することを目的としている。
現在利用可能なEdge-to-Cloud Continuumに関する実験的な研究のための、主要なシミュレーション、エミュレーション、デプロイメントシステム、テストベッドも調査されている。
論文 参考訳(メタデータ) (2022-04-29T08:06:05Z) - Multi-Edge Server-Assisted Dynamic Federated Learning with an Optimized
Floating Aggregation Point [51.47520726446029]
協調エッジ学習(CE-FL)は、分散機械学習アーキテクチャである。
CE-FLの過程をモデル化し,分析訓練を行った。
実世界のテストベッドから収集したデータを用いて,本フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-03-26T00:41:57Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Computational Intelligence and Deep Learning for Next-Generation
Edge-Enabled Industrial IoT [51.68933585002123]
エッジ対応産業用IoTネットワークにおける計算知能とディープラーニング(DL)の展開方法について検討する。
本稿では,新しいマルチエグジットベースフェデレーションエッジ学習(ME-FEEL)フレームワークを提案する。
特に、提案されたME-FEELは、非常に限られたリソースを持つ産業用IoTネットワークにおいて、最大32.7%の精度を達成することができる。
論文 参考訳(メタデータ) (2021-10-28T08:14:57Z) - Device Sampling for Heterogeneous Federated Learning: Theory,
Algorithms, and Implementation [24.084053136210027]
グラフシーケンシャル畳み込みネットワーク(GCN)に基づくサンプリング手法を開発した。
提案手法は,全機器の5%以下をサンプリングしながら,訓練されたモデル精度と必要なリソース利用の両面で,fedl(federated learning)を実質的に上回っている。
論文 参考訳(メタデータ) (2021-01-04T05:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。