論文の概要: Towards Fair and Efficient Learning-based Congestion Control
- arxiv url: http://arxiv.org/abs/2403.01798v1
- Date: Mon, 4 Mar 2024 07:38:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 19:47:53.396842
- Title: Towards Fair and Efficient Learning-based Congestion Control
- Title(参考訳): 公平かつ効率的な学習に基づく混雑制御に向けて
- Authors: Xudong Liao, Han Tian, Chaoliang Zeng, Xinchen Wan, Kai Chen
- Abstract要約: Astraeaは,安定度と公正度を高速に収束させる,学習に基づく新しい渋滞制御である。
Astraeaの中心には、トレーニングプロセス中にこれらの収束特性を明示的に最適化する、マルチエージェントの深層強化学習フレームワークがある。
Astraeaはすぐに公正点に収束し、その点よりも優れた安定性を示すことを示す。
- 参考スコア(独自算出の注目度): 9.4123786921256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed a plethora of learning-based solutions for
congestion control (CC) that demonstrate better performance over traditional
TCP schemes. However, they fail to provide consistently good convergence
properties, including {\em fairness}, {\em fast convergence} and {\em
stability}, due to the mismatch between their objective functions and these
properties. Despite being intuitive, integrating these properties into existing
learning-based CC is challenging, because: 1) their training environments are
designed for the performance optimization of single flow but incapable of
cooperative multi-flow optimization, and 2) there is no directly measurable
metric to represent these properties into the training objective function.
We present Astraea, a new learning-based congestion control that ensures fast
convergence to fairness with stability. At the heart of Astraea is a
multi-agent deep reinforcement learning framework that explicitly optimizes
these convergence properties during the training process by enabling the
learning of interactive policy between multiple competing flows, while
maintaining high performance. We further build a faithful multi-flow
environment that emulates the competing behaviors of concurrent flows,
explicitly expressing convergence properties to enable their optimization
during training. We have fully implemented Astraea and our comprehensive
experiments show that Astraea can quickly converge to fairness point and
exhibit better stability than its counterparts. For example, \sys achieves
near-optimal bandwidth sharing (i.e., fairness) when multiple flows compete for
the same bottleneck, delivers up to 8.4$\times$ faster convergence speed and
2.8$\times$ smaller throughput deviation, while achieving comparable or even
better performance over prior solutions.
- Abstract(参考訳): 近年,従来のTCP方式よりも優れた性能を示す,CC(Comgestion Control)のための学習ベースのソリューションが数多く出回っている。
しかし、それらは目的関数とそれらの性質のミスマッチのため、一貫して良好な収束特性(例えば、フェアネス、高速収束、安定性)を提供することができない。
直感的ではあるが、これらの特性を既存の学習ベースのccに統合することは困難である。
1) 学習環境は単一フローの性能最適化のために設計されているが, 協調的マルチフロー最適化ができない。
2) これらの特性を訓練対象関数に表すための直接測定可能な計量は存在しない。
Astraeaは,安定度と公正度を高速に収束させる,学習に基づく新しい渋滞制御である。
Astraeaの中心にあるマルチエージェントの深層強化学習フレームワークは、高いパフォーマンスを維持しながら、複数の競合するフロー間のインタラクティブなポリシーの学習を可能にすることで、トレーニングプロセス中にこれらの収束特性を明示的に最適化する。
さらに,並列フローの競合挙動をエミュレートする忠実なマルチフロー環境を構築し,コンバージェンス特性を明示的に表現し,トレーニング時の最適化を可能にした。
我々はAstraeaを完全に実装し、網羅的な実験により、Astraeaはすぐに公正点に収束し、その点よりも優れた安定性を示すことを示す。
例えば,複数のフローが同じボトルネックを競合する場合,最大8.4$\times$高速収束速度と2.8$\times$より小さなスループット偏差を実現し,従来よりも同等あるいはそれ以上のパフォーマンスを実現している。
関連論文リスト
- Boosting the Performance of Decentralized Federated Learning via Catalyst Acceleration [66.43954501171292]
本稿では,Catalytics Accelerationを導入し,DFedCataと呼ばれる促進型分散フェデレート学習アルゴリズムを提案する。
DFedCataは、パラメータの不整合に対処するMoreauエンベロープ関数と、アグリゲーションフェーズを加速するNesterovの外挿ステップの2つの主要コンポーネントで構成されている。
実験により, CIFAR10/100における収束速度と一般化性能の両面において, 提案アルゴリズムの利点を実証した。
論文 参考訳(メタデータ) (2024-10-09T06:17:16Z) - Optimization by Parallel Quasi-Quantum Annealing with Gradient-Based Sampling [0.0]
本研究では、連続緩和による勾配に基づく更新と準量子アナリング(QQA)を組み合わせた別のアプローチを提案する。
数値実験により,本手法はiSCOと学習型解法に匹敵する性能を有する汎用解法であることが示された。
論文 参考訳(メタデータ) (2024-09-02T12:55:27Z) - Revisiting and Maximizing Temporal Knowledge in Semi-supervised Semantic Segmentation [7.005068872406135]
平均教師と共同学習に基づくアプローチは、確認バイアスと結合問題を緩和するために用いられる。
これらのアプローチは、複雑なトレーニングパイプラインとかなりの計算負担を伴うことが多い。
本稿では,トレーニングプロセス中に得られた時間的知識を最大限活用することにより,制約を効果的に緩和するPrevMatchフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-31T03:54:59Z) - MUSIC: Accelerated Convergence for Distributed Optimization With Inexact
and Exact Methods [6.800113478497425]
本稿では,MUSICと名づけられた高速化されたフレームワークを提案し,各エージェントが複数のローカル更新と1つの組み合わせをイテレーション毎に実行できるようにする。
そこで我々は, 線形収束を高速化し, 通信効率を向上する2つの新しいアルゴリズムを考案した。
論文 参考訳(メタデータ) (2024-03-05T02:02:00Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Decoupled Adversarial Contrastive Learning for Self-supervised
Adversarial Robustness [69.39073806630583]
頑健な表現学習のための対人訓練(AT)と教師なし表現学習のための自己教師型学習(SSL)は2つの活発な研究分野である。
Decoupled Adversarial Contrastive Learning (DeACL) と呼ばれる2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-22T06:30:44Z) - Disentangled Federated Learning for Tackling Attributes Skew via
Invariant Aggregation and Diversity Transferring [104.19414150171472]
属性は、クライアント間の一貫した最適化方向から、現在の連邦学習(FL)フレームワークを歪めます。
本稿では,ドメイン固有属性とクロス不変属性を2つの補足枝に分離するために,非絡み付きフェデレーション学習(DFL)を提案する。
実験により、DFLはSOTA FL法と比較して高い性能、より良い解釈可能性、より高速な収束率でFLを促進することが確認された。
論文 参考訳(メタデータ) (2022-06-14T13:12:12Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Blockchain-enabled Server-less Federated Learning [5.065631761462706]
我々は、(BC)技術によって強化された非同期サーバーレスフェデレートラーニングソリューションに焦点を当てる。
主に採用されているFLアプローチとは対照的に、クライアントがローカル更新を送信する際にモデルアグリゲーションを行う非同期手法を提唱する。
論文 参考訳(メタデータ) (2021-12-15T07:41:23Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。