論文の概要: CBA: Communication-Bound-Aware Cross-Domain Resource Assignment for Pipeline-Parallel Distributed LLM Training in Dynamic Multi-DC Optical Networks
- arxiv url: http://arxiv.org/abs/2512.20080v1
- Date: Tue, 23 Dec 2025 06:26:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.764942
- Title: CBA: Communication-Bound-Aware Cross-Domain Resource Assignment for Pipeline-Parallel Distributed LLM Training in Dynamic Multi-DC Optical Networks
- Title(参考訳): CBA:動的マルチDC光ネットワークにおけるパイプライン並列分散LDMトレーニングのための通信境界対応クロスドメインリソースアサインメント
- Authors: Dianxuan Fu, Xiaomin Liu, Yihao Zhang, Shikui Shen, Weisheng Hu, Qunbi Zhuge,
- Abstract要約: 本稿では,マルチデータセンタ光ネットワーク上でのパイプライン並列分散トレーニングのための通信バウンド・アウェアなクロスドメインリソース割り当てフレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.8787064563825675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a communication-bound-aware cross-domain resource assignment framework for pipeline-parallel distributed training over multi-datacenter optical networks, which lowers iteration time by 31.25% and reduces 13.20% blocking requests compared to baselines.
- Abstract(参考訳): 本稿では,マルチデータセンタ光ネットワーク上でのパイプライン並列分散トレーニングのための通信バウンド・アウェアなクロスドメインリソース割り当てフレームワークを提案する。
関連論文リスト
- Cross-Domain Federated Semantic Communication with Global Representation Alignment and Domain-Aware Aggregation [102.51096131854848]
本研究は,画像再構成作業における意味コミュニケーションシステムの訓練における領域シフトを考慮した最初の試みである。
提案手法は,SNRが1dBの3領域のPSNR値に対して,モデルコントラストFL(MOON)フレームワークを0.5倍に向上させる。
論文 参考訳(メタデータ) (2025-11-30T03:19:59Z) - CNN-Enabled Scheduling for Probabilistic Real-Time Guarantees in Industrial URLLC [0.0]
マルチセル・マルチチャネルネットワークにおける干渉調整の改善を目的としたCNNに基づく動的優先度予測機構を提案する。
3つのネットワーク構成で最大113%,94%,49%のSINR増加を示す。
論文 参考訳(メタデータ) (2025-06-17T21:40:19Z) - StreamRL: Scalable, Heterogeneous, and Elastic RL for LLMs with Disaggregated Stream Generation [55.75008325187133]
強化学習(RL)は,大規模言語モデル(LLM)の学習後のコアとなる。
StreamRLは、最初の原則から分離して、2種類のパフォーマンスボトルネックに対処するように設計されている。
実験により、StreamRLは既存の最先端システムと比較してスループットを最大2.66倍改善することが示された。
論文 参考訳(メタデータ) (2025-04-22T14:19:06Z) - Rail-only: A Low-Cost High-Performance Network for Training LLMs with Trillion Parameters [7.293402047354488]
本稿では,大規模言語モデル(LLM)をハイパースケールでトレーニングするための,低コストなネットワークアーキテクチャを提案する。
この設計をRailオンリーネットワークと名付け,ネットワークコストを38%から77%削減しながら,同じトレーニング性能を実現することを示す。
私たちのアーキテクチャは、全トラフィックに対して8.2%から11.2%の完了時間オーバーヘッドしか持たない、全対全通信を備えたMixture-of-Expert(MoE)モデルもサポートしています。
論文 参考訳(メタデータ) (2023-07-22T21:18:41Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - Optimization of Image Transmission in a Cooperative Semantic
Communication Networks [68.2233384648671]
画像伝送のためのセマンティック通信フレームワークを開発した。
サーバは、セマンティックコミュニケーション技術を用いて、画像の集合を協調的にユーザへ送信する。
抽出した意味情報と原画像との相関関係を測定するために,マルチモーダル・メトリックを提案する。
論文 参考訳(メタデータ) (2023-01-01T15:59:13Z) - Distributed Resource Allocation for URLLC in IIoT Scenarios: A
Multi-Armed Bandit Approach [17.24490186427519]
本稿では,将来の6G産業用IoT(Industrial Internet of Things, IIoT)ネットワークにおいて,機械間ウルトラ信頼性低レイテンシ通信(URLLC)を実現するという課題に対処する。
本研究では,ユーザ機器がアリンク無線リソースを自律的に選択する機械学習に基づく,分散型ユーザ中心方式について検討する。
シミュレーションを用いて,URLLCを念頭に置いてリソースを割り当てる上で,MAB(Multi-Armed Bandit)アプローチが望ましい手法であることを実証した。
論文 参考訳(メタデータ) (2022-11-22T11:50:05Z) - LIBRA: Enabling Workload-aware Multi-dimensional Network Topology Optimization for Distributed Training of Large AI Models [6.980277221943408]
我々は,機械学習システムにおける多次元ネットワークの設計を,ネットワーク全体の帯域幅を向上させるためのコスト効率のメカニズムとして動機付けている。
多次元ファブリックアーキテクチャの最適化に特化したフレームワークであるLIBRAを紹介する。
論文 参考訳(メタデータ) (2021-09-24T06:22:28Z) - LCP: A Low-Communication Parallelization Method for Fast Neural Network
Inference in Image Recognition [33.581285906182075]
そこで本研究では, ほぼ独立な複数の枝と狭い枝からなるモデルを用いた低通信並列化手法を提案する。
当社では,AWSインスタンス,Raspberry Pi,PYNQボードという,3つの分散システムにLCPモデルをデプロイしています。
LCPモデルは、オリジナルのモデルと比べて56倍と7倍の平均的なスピードアップを達成し、平均的なスピードアップを33倍に改善することができた。
論文 参考訳(メタデータ) (2020-03-13T19:52:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。