論文の概要: SwiftQueue: Optimizing Low-Latency Applications with Swift Packet Queuing
- arxiv url: http://arxiv.org/abs/2410.06112v1
- Date: Tue, 8 Oct 2024 15:08:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 11:10:50.633603
- Title: SwiftQueue: Optimizing Low-Latency Applications with Swift Packet Queuing
- Title(参考訳): SwiftQueue: Swift Packetキューによる低レイテンシアプリケーションの最適化
- Authors: Siddhant Ray, Xi Jiang, Jack Luo, Nick Feamster, Junchen Jiang,
- Abstract要約: 新しいL4Sキュー選択戦略であるSwiftQueueを紹介します。
送信側は、新しいパケット毎の遅延予測器を使用して、どのパケットに遅延スパイクやドロップがあるかを特定する。
SwiftQueueはレイテンシ予測に基づいて、テールレイテンシ4S対応フローを36-45%削減する。
- 参考スコア(独自算出の注目度): 7.963059669473274
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low Latency, Low Loss, and Scalable Throughput (L4S), as an emerging router-queue management technique, has seen steady deployment in the industry. An L4S-enabled router assigns each packet to the queue based on the packet header marking. Currently, L4S employs per-flow queue selection, i.e. all packets of a flow are marked the same way and thus use the same queues, even though each packet is marked separately. However, this may hurt tail latency and latency-sensitive applications because transient congestion and queue buildups may only affect a fraction of packets in a flow. We present SwiftQueue, a new L4S queue-selection strategy in which a sender uses a novel per-packet latency predictor to pinpoint which packets likely have latency spikes or drops. The insight is that many packet-level latency variations result from complex interactions among recent packets at shared router queues. Yet, these intricate packet-level latency patterns are hard to learn efficiently by traditional models. Instead, SwiftQueue uses a custom Transformer, which is well-studied for its expressiveness on sequential patterns, to predict the next packet's latency based on the latencies of recently received ACKs. Based on the predicted latency of each outgoing packet, SwiftQueue's sender dynamically marks the L4S packet header to assign packets to potentially different queues, even within the same flow. Using real network traces, we show that SwiftQueue is 45-65% more accurate in predicting latency and its variations than state-of-art methods. Based on its latency prediction, SwiftQueue reduces the tail latency for L4S-enabled flows by 36-45%, compared with the existing L4S queue-selection method.
- Abstract(参考訳): 低レイテンシ、低損失、スケーラブルスループット(L4S)は、新しいルータキュー管理技術として、業界に着実に展開されている。
L4S対応ルータは、パケットヘッダマーキングに基づいて各パケットをキューに割り当てる。
現在、L4Sはフロー単位のキュー選択を採用しており、フローの全てのパケットは同じ方法でマークされているため、各パケットが別々にマークされているにもかかわらず、同じキューを使用する。
しかしこれは、過度な混雑とキューのビルドがフロー内のパケットのごく一部にしか影響しないため、テールレイテンシと遅延に敏感なアプリケーションに悪影響を及ぼす可能性がある。
我々は、新しいL4Sキュー選択戦略であるSwiftQueueを紹介します。
この知見は、多くのパケットレベルの遅延は、共有ルータキューにおける最近のパケット間の複雑な相互作用によって生じる。
しかし、これらの複雑なパケットレベルのレイテンシパターンは、従来のモデルで効率的に学習するのは難しい。
代わりにSwiftQueueでは、シーケンシャルなパターンを表現できる独自のTransformerを使用して、最近受信したACKのレイテンシに基づいて、次のパケットのレイテンシを予測する。
各送信パケットの予測レイテンシに基づいて、SwiftQueueの送信者は、L4Sパケットヘッダを動的にマークして、同一フロー内であっても、潜在的に異なるキューにパケットを割り当てる。
実際のネットワークトレースを用いて、SwiftQueueは、最先端の手法よりもレイテンシとそのバリエーションを予測する上で、45~65%正確であることを示す。
SwiftQueueはレイテンシ予測に基づいて、既存のL4Sキュー選択方法と比較して、L4S対応フローのテールレイテンシを36-45%削減する。
関連論文リスト
- Decentralized Reliability Estimation for Mixnets [9.938777444906593]
連続的な復号化ミックスネットは、データパケットをエンドツーエンドのレイテンシで匿名でルーティングすることができる。
既存の検証可能性メカニズムは、数分から数時間で計測されるオーバーヘッドを課すため、スケーラブルな低レイテンシの連続時間ミキサネットと互換性がない。
本研究では,連続時間ミキサネットを構成するリンクとノードの信頼性スコアを推定する手法を提案する。
論文 参考訳(メタデータ) (2024-06-10T19:38:04Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Fast Distributed Inference Serving for Large Language Models [12.703624317418237]
大規模言語モデル(LLM)のための分散推論サービスシステムであるFastServeについて述べる。
FastServeはLLM推論の自己回帰パターンを利用して、各出力トークンの粒度のプリエンプションを可能にする。
我々は,FastServeのシステムプロトタイプを構築し,最先端のソリューションであるvLLMと比較して,同じ平均および末尾遅延条件下でのスループットを最大31.4xと17.9xに改善したことを示す。
論文 参考訳(メタデータ) (2023-05-10T06:17:50Z) - Boosting Distributed Machine Learning Training Through Loss-tolerant
Transmission Protocol [11.161913989794257]
分散機械学習(DML)システムは、データセンター(DC)とエッジノードにおけるモデルトレーニングのスピードを高めるために使用される。
PS通信アーキテクチャは、多対一の"インキャスト"トラフィックパターンが原因で、トレーニングスループットに悪影響を及ぼすという、非常に長いレイテンシに直面している。
textbfLoss-tolerant textbfTransmission textbfProcolは、同期中に勾配が部分的に失われ、不要な再送信を避ける。
textitEarly Closes the loss-tolerant threshold based on network conditions and textit
論文 参考訳(メタデータ) (2023-05-07T14:01:52Z) - Decentralized Coordination in Partially Observable Queueing Networks [22.215852332444904]
我々は,エージェントが環境を部分的に観察し,全体の報酬を最大化するために協調して行動する必要がある,完全協調型マルチエージェントシステムにおけるコミュニケーションを考える。
エージェントは、現在のキューの長さの部分的な情報のみに基づいて、パケットをキューにルーティングする。
我々は,パケットドロップレートを低減するために,エージェントが情報を共有するための通信チャネルを実装した。
論文 参考訳(メタデータ) (2022-08-29T14:12:45Z) - MAPLE-Edge: A Runtime Latency Predictor for Edge Devices [80.01591186546793]
汎用ハードウェアの最先端遅延予測器であるMAPLEのエッジデバイス指向拡張であるMAPLE-Edgeを提案する。
MAPLEと比較して、MAPLE-Edgeはより小さなCPUパフォーマンスカウンタを使用して、ランタイムとターゲットデバイスプラットフォームを記述することができる。
また、共通ランタイムを共有するデバイスプール上でトレーニングを行うMAPLEとは異なり、MAPLE-Edgeは実行時に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2022-04-27T14:00:48Z) - Selective Network Linearization for Efficient Private Inference [49.937470642033155]
本稿では,予測精度を維持しつつReLUを選択的に線形化する勾配に基づくアルゴリズムを提案する。
その結果、現在の技術よりも4.25%$の精度(so-ReLUは50K)、または2.2times$のレイテンシ(so-accuracyは70%)が低いことがわかった。
論文 参考訳(メタデータ) (2022-02-04T19:00:24Z) - Real-Time GPU-Accelerated Machine Learning Based Multiuser Detection for
5G and Beyond [70.81551587109833]
非線形ビームフォーミングフィルタは、大規模な接続を伴う定常シナリオにおいて、線形アプローチを著しく上回る。
主な課題の1つは、これらのアルゴリズムのリアルタイム実装である。
本稿では,大規模並列化によるAPSMに基づくアルゴリズムの高速化について検討する。
論文 参考訳(メタデータ) (2022-01-13T15:20:45Z) - Better than the Best: Gradient-based Improper Reinforcement Learning for
Network Scheduling [60.48359567964899]
パケット遅延を最小限に抑えるため,制約付き待ち行列ネットワークにおけるスケジューリングの問題を考える。
我々は、利用可能な原子ポリシーよりも優れたスケジューラを生成するポリシー勾配に基づく強化学習アルゴリズムを使用する。
論文 参考訳(メタデータ) (2021-05-01T10:18:34Z) - Learning Algorithms for Minimizing Queue Length Regret [5.8010446129208155]
パケットはランダムに送信機のキューに到着し、受信機に送信されるのを待ちます。
送信機の目的は、キュー内のパケット数を$T$のタイムスロットで最小化するために、最適なチャネルを素早く識別することである。
順序の最適値O(1)$キュー長の後悔を得られるキュー長ベースのポリシーのセットが存在することを示す。
論文 参考訳(メタデータ) (2020-05-11T15:50:56Z) - Latency-Aware Differentiable Neural Architecture Search [113.35689580508343]
近年、探索コストの低さと検索空間設計の柔軟性から、微分可能なニューラルネットワーク探索法が人気を博している。
しかし、これらの手法はネットワーク最適化の難しさに悩まされており、検索されたネットワークはハードウェアに不便な場合が多い。
本稿では,この問題を最適化に微分可能な遅延損失項を追加することにより,精度とレイテンシのトレードオフをバランス係数で行うことができる。
論文 参考訳(メタデータ) (2020-01-17T15:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。