論文の概要: Pegasus: A Universal Framework for Scalable Deep Learning Inference on the Dataplane
- arxiv url: http://arxiv.org/abs/2506.05779v1
- Date: Fri, 06 Jun 2025 06:17:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.345648
- Title: Pegasus: A Universal Framework for Scalable Deep Learning Inference on the Dataplane
- Title(参考訳): Pegasus: Dataplane上でのスケーラブルなディープラーニング推論のためのユニバーサルフレームワーク
- Authors: Yinchao Zhang, Su Yao, Yong Feng, Kang Chen, Tong Li, Zhuotao Liu, Yi Zhao, Lexuan Zhang, Xiangyu Gao, Feng Xiong, Qi Li, Ke Xu,
- Abstract要約: Pegasusは、ディープラーニング(DL)操作を3つのデータプレーン指向プリミティブに変換することで、分割、マップ、SumReduceという汎用性を実現する。
ペガサスは、平均精度を最大22.8%向上させ、248倍のモデルサイズと212倍の入力スケールで最先端のアプローチより優れている。
- 参考スコア(独自算出の注目度): 21.148057007256686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paradigm of Intelligent DataPlane (IDP) embeds deep learning (DL) models on the network dataplane to enable intelligent traffic analysis at line-speed. However, the current use of the match-action table (MAT) abstraction on the dataplane is misaligned with DL inference, leading to several key limitations, including accuracy degradation, limited scale, and lack of generality. This paper proposes Pegasus to address these limitations. Pegasus translates DL operations into three dataplane-oriented primitives to achieve generality: Partition, Map, and SumReduce. Specifically, Partition "divides" high-dimensional features into multiple low-dimensional vectors, making them more suitable for the dataplane; Map "conquers" computations on the low-dimensional vectors in parallel with the technique of fuzzy matching, while SumReduce "combines" the computation results. Additionally, Pegasus employs Primitive Fusion to merge computations, improving scalability. Finally, Pegasus adopts full precision weights with fixed-point activations to improve accuracy. Our implementation on a P4 switch demonstrates that Pegasus can effectively support various types of DL models, including Multi-Layer Perceptron (MLP), Recurrent Neural Network (RNN), Convolutional Neural Network (CNN), and AutoEncoder models on the dataplane. Meanwhile, Pegasus outperforms state-of-the-art approaches with an average accuracy improvement of up to 22.8%, along with up to 248x larger model size and 212x larger input scale.
- Abstract(参考訳): Intelligent DataPlane(IDP)のパラダイムは、ネットワークデータプレーンにディープラーニング(DL)モデルを組み込んで、ラインスピードでインテリジェントなトラフィック分析を可能にする。
しかし、現在のデータプレーンでのマッチングテーブル(MAT)抽象化の使用は、DL推論と不一致であり、精度の低下、スケールの制限、一般化の欠如など、いくつかの重要な制限につながっている。
本稿ではこれらの制約に対処するためにペガサスを提案する。
PegasusはDL操作を3つのデータプレーン指向プリミティブ(Partition, Map, SumReduce)に変換する。
具体的には、高次元特徴を複数の低次元ベクトルに分割し、データプレーンにより適するようにし、ファジィマッチング技術と並行して低次元ベクトルに"conquers"計算をマップし、SumReduceは計算結果を"combines"する。
さらに、PegasusはPrimitive Fusionを使って計算をマージし、スケーラビリティを改善している。
最後に、ペガサスは精度を向上させるために固定点アクティベーションを備えた完全精度の重みを採用する。
P4スイッチの実装により、ペガサスは多層パーセプトロン(MLP)、リカレントニューラルネットワーク(RNN)、畳み込みニューラルネットワーク(CNN)、データプレーン上のオートエンコーダモデルなど、様々なタイプのDLモデルを効果的にサポートできることを示す。
一方ペガサスは、平均精度を22.8%向上させ、248倍のモデルサイズと212倍の入力スケールで最先端のアプローチより優れている。
関連論文リスト
- PMA: Towards Parameter-Efficient Point Cloud Understanding via Point Mamba Adapter [54.33433051500349]
本稿では,事前学習モデルのすべての層から順序付き特徴系列を構成するPMAを提案する。
また、異なる層にまたがって共有される幾何学制約ゲートプロンプトジェネレータ(G2PG)を提案する。
論文 参考訳(メタデータ) (2025-05-27T09:27:16Z) - Plexus: Taming Billion-edge Graphs with 3D Parallel GNN Training [1.6954729278440728]
グラフニューラルネットワーク(GNN)は、実世界のグラフの接続性と構造を利用して、ノード間の複雑な特性と関係を学習する。
多くの実世界のグラフはGPUのメモリ容量を超えるサイズであり、その上にGNNを使用するには、スケールするためにミニバッチサンプリングのような技術が必要である。
本稿では、これらの問題に対処し、数十億のエッジグラフにスケールするフルグラフトレーニングのための3次元並列アプローチを提案する。
論文 参考訳(メタデータ) (2025-05-07T02:49:52Z) - Nes2Net: A Lightweight Nested Architecture for Foundation Model Driven Speech Anti-spoofing [56.53218228501566]
Nested Res2Net (Nes2Net) は、DRレイヤなしで高次元機能を直接処理できる軽量バックエンドアーキテクチャである。
本稿では,22%の性能向上と87%のバックエンド計算コスト削減を報告した。
論文 参考訳(メタデータ) (2025-04-08T04:11:28Z) - TripNet: Learning Large-scale High-fidelity 3D Car Aerodynamics with Triplane Networks [27.577307360710545]
TripNetは3次元の幾何学を固定次元のコンパクトで連続的な特徴マップに暗黙的にエンコードする三面体ベースのニューラルネットワークフレームワークである。
TripNetはDriivAerNetとDriivAerNet++データセットで最先端のパフォーマンスを実現し、ドラッグ係数、表面圧力、フル3Dフローフィールドを正確に予測する。
論文 参考訳(メタデータ) (2025-03-19T17:30:57Z) - A Sparse Cross Attention-based Graph Convolution Network with Auxiliary
Information Awareness for Traffic Flow Prediction [41.66129197681683]
この研究はAIMSANというディープエンコーダデコーダモデルを提案する。
補助情報認識モジュール(AIM)とスパースクロスアテンションベースのグラフ畳み込みネットワーク(SAN)を含んでいる。
提案手法は最先端のアルゴリズムと競合する性能を持つが、GPUメモリ使用量の35.74%、トレーニング時間の42.25%、検証時間の45.51%を節約できる。
論文 参考訳(メタデータ) (2023-12-14T15:48:23Z) - MatFormer: Nested Transformer for Elastic Inference [91.45687988953435]
MatFormerは、多様なデプロイメント制約にまたがる弾性推論を提供するように設計された、新しいTransformerアーキテクチャである。
MatFormerは、標準的なTransformerモデルにネストフィードフォワードネットワーク(FFN)ブロック構造を組み込むことで、これを実現している。
8億5000万デコーダのみのMatFormer言語モデル(MatLM)により,5億2200万から8億5千万のパラメータにまたがる複数の小さなモデルを抽出できることを示す。
論文 参考訳(メタデータ) (2023-10-11T17:57:14Z) - Adaptive Elastic Training for Sparse Deep Learning on Heterogeneous
Multi-GPU Servers [65.60007071024629]
本稿では,Adaptive SGDが4つの最先端ソリューションよりも精度が高いことを示す。
本稿では,Adaptive SGDが時間と精度で4つの最先端ソリューションより優れていることを示す。
論文 参考訳(メタデータ) (2021-10-13T20:58:15Z) - Multi Projection Fusion for Real-time Semantic Segmentation of 3D LiDAR
Point Clouds [2.924868086534434]
本稿では,ポイントクラウドの複数のプロジェクションを利用する3次元ポイントクラウドセマンティックセマンティックセマンティクスの新しいアプローチを提案する。
我々のMulti-Projection Fusionフレームワークは、2つの異なる高効率2次元完全畳み込みモデルを用いて球面および鳥眼の視射影を解析する。
論文 参考訳(メタデータ) (2020-11-03T19:40:43Z) - KAPLAN: A 3D Point Descriptor for Shape Completion [80.15764700137383]
KAPLANは、一連の2D畳み込みを通じて局所的な形状情報を集約する3Dポイント記述子である。
各平面において、正規点や平面間距離のような点特性は2次元グリッドに集約され、効率的な2次元畳み込みエンコーダを持つ特徴表現に抽象化される。
公開データセットの実験では、KAPLANが3D形状の完成のために最先端のパフォーマンスを達成することが示されている。
論文 参考訳(メタデータ) (2020-07-31T21:56:08Z) - Taurus: A Data Plane Architecture for Per-Packet ML [59.1343317736213]
本稿では,線数推論のためのデータプレーンであるTaurusの設計と実装について述べる。
Taurus スイッチ ASIC の評価は,Taurus がサーバベースコントロールプレーンよりも桁違いに高速に動作することを示す。
論文 参考訳(メタデータ) (2020-02-12T09:18:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。