論文の概要: Machine Learning and CPU (Central Processing Unit) Scheduling Co-Optimization over a Network of Computing Centers
- arxiv url: http://arxiv.org/abs/2510.25176v1
- Date: Wed, 29 Oct 2025 05:21:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.091619
- Title: Machine Learning and CPU (Central Processing Unit) Scheduling Co-Optimization over a Network of Computing Centers
- Title(参考訳): コンピュータセンターネットワーク上での機械学習とCPU(中央処理ユニット)スケジューリング協調最適化
- Authors: Mohammadreza Doostmohammadian, Zulfiya R. Gabidullina, Hamid R. Rabiee,
- Abstract要約: 本稿では,分散機械学習(ML)における計算資源の最適化と最適化の課題について考察する。
その考え方は、CPU(中央処理ユニット)の使用を最適に割り当て、同時に各計算ノードを自身の共有データでローカルにトレーニングすることである。
既存のCPUスケジューリングソリューションと比較して、提案アルゴリズムはコスト最適性ギャップを50%以上改善する。
- 参考スコア(独自算出の注目度): 8.689944212280643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the rapidly evolving research on artificial intelligence (AI) the demand for fast, computationally efficient, and scalable solutions has increased in recent years. The problem of optimizing the computing resources for distributed machine learning (ML) and optimization is considered in this paper. Given a set of data distributed over a network of computing-nodes/servers, the idea is to optimally assign the CPU (central processing unit) usage while simultaneously training each computing node locally via its own share of data. This formulates the problem as a co-optimization setup to (i) optimize the data processing and (ii) optimally allocate the computing resources. The information-sharing network among the nodes might be time-varying, but with balanced weights to ensure consensus-type convergence of the algorithm. The algorithm is all-time feasible, which implies that the computing resource-demand balance constraint holds at all iterations of the proposed solution. Moreover, the solution allows addressing possible log-scale quantization over the information-sharing channels to exchange log-quantized data. For some example applications, distributed support-vector-machine (SVM) and regression are considered as the ML training models. Results from perturbation theory, along with Lyapunov stability and eigen-spectrum analysis, are used to prove the convergence towards the optimal case. As compared to existing CPU scheduling solutions, the proposed algorithm improves the cost optimality gap by more than $50\%$.
- Abstract(参考訳): 人工知能(AI)の急速な研究で、高速で計算効率が高くスケーラブルなソリューションの需要が近年増加している。
本稿では,分散機械学習(ML)における計算資源の最適化と最適化の課題について考察する。
計算ノード/サーバのネットワーク上に分散されたデータのセットを前提として、CPU(中央処理ユニット)の使用量を最適に割り当てると同時に、各計算ノードをデータ共有を通じてローカルにトレーニングする。
これは、問題を共最適化設定として定式化する。
(i)データ処理を最適化し、
(二)最適に計算資源を割り当てる。
ノード間の情報共有ネットワークは時間的変化があるかもしれないが、アルゴリズムのコンセンサス型収束を保証するためにバランスの取れた重みがある。
このアルゴリズムはオールタイムで実現可能であり、提案したソリューションのすべてのイテレーションにおいて、計算リソースと要求バランスの制約が保持されることを意味する。
さらに、このソリューションは、ログ量子化データを交換するために、情報共有チャネル上でのログスケールの量子化を可能にする。
いくつかのアプリケーションでは、分散サポートベクタマシン(SVM)と回帰がMLトレーニングモデルとして検討されている。
摂動理論の結果は、リャプノフ安定性と固有スペクトル解析とともに、最適な場合への収束を証明するために用いられる。
既存のCPUスケジューリングソリューションと比較して、提案アルゴリズムはコスト最適性ギャップを50\%以上改善する。
関連論文リスト
- Performance Analysis of Convolutional Neural Network By Applying Unconstrained Binary Quadratic Programming [0.0]
畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンとビッグデータ分析において重要であるが、大規模なデータセットでトレーニングされた場合には、かなりの計算リソースを必要とする。
CNNトレーニングを高速化するために,Unconstrained Binary Quadratic Programming (UBQP) と Gradient Descent (SGD) を組み合わせたハイブリッド最適化手法を提案する。
提案手法は, BP-CNNベースラインの10-15%の精度向上を実現し, 同様の実行時間を維持する。
論文 参考訳(メタデータ) (2025-05-30T21:25:31Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Randomized Polar Codes for Anytime Distributed Machine Learning [66.46612460837147]
本稿では,低速な計算ノードに対して堅牢で,線形演算の近似計算と精度の両立が可能な分散コンピューティングフレームワークを提案する。
本稿では,復号化のための計算複雑性を低く保ちながら,実数値データを扱うための逐次復号アルゴリズムを提案する。
大規模行列乗算やブラックボックス最適化など,様々な文脈において,このフレームワークの潜在的な応用を実証する。
論文 参考訳(メタデータ) (2023-09-01T18:02:04Z) - RESPECT: Reinforcement Learning based Edge Scheduling on Pipelined Coral
Edge TPUs [12.952987240366781]
本研究は、最適化アルゴリズムの挙動を学習する強化学習(RL)に基づくスケジューリングフレームワークを提案する。
RLは、実行時のオーバーヘッドを短くすることで、ほぼ最適のスケジューリング結果を生成する。
我々のフレームワークは、商用コンパイラ上での実世界のオンチップランタイム推論速度アップを最大$sim2.5times$で実証しています。
論文 参考訳(メタデータ) (2023-04-10T17:22:12Z) - DESTRESS: Computation-Optimal and Communication-Efficient Decentralized
Nonconvex Finite-Sum Optimization [43.31016937305845]
インターネット・オブ・シング、ネットワークセンシング、自律システム、有限サム最適化のための分散アルゴリズムのためのフェデレーション学習。
非有限サム最適化のためのDecentralized STochastic Recursive MethodDESTRESSを開発した。
詳細な理論的および数値的な比較は、DESTRESSが事前の分散アルゴリズムにより改善されていることを示している。
論文 参考訳(メタデータ) (2021-10-04T03:17:41Z) - Implementation of Parallel Simplified Swarm Optimization in CUDA [2.322689362836168]
最適化コンピューティングでは、インテリジェントなSwarmアルゴリズム(SIAs)が並列化に適している。
本稿では,計算能力と汎用性を考慮したGPUに基づくSimplified Swarm Algorithm Optimization (PSSO)を提案する。
結果から,Nの次数による時間複雑性の低減が達成され,資源プリエンプションの問題は完全に回避された。
論文 参考訳(メタデータ) (2021-10-01T00:15:45Z) - AsySQN: Faster Vertical Federated Learning Algorithms with Better
Computation Resource Utilization [159.75564904944707]
垂直連合学習(VFL)のための非同期準ニュートン(AsySQN)フレームワークを提案する。
提案アルゴリズムは、逆ヘッセン行列を明示的に計算することなく、近似して降下ステップをスケールする。
本稿では,非同期計算を採用することにより,計算資源の有効利用が期待できることを示す。
論文 参考訳(メタデータ) (2021-09-26T07:56:10Z) - Parallel Scheduling Self-attention Mechanism: Generalization and
Optimization [0.76146285961466]
本稿では,SAT(Satisfiability check)ソルバによって解決された小インスタンスの最適スケジューリングから導いた一般スケジューリングアルゴリズムを提案する。
余剰計算をスキップする際のさらなる最適化戦略も推進され、元の計算の約25%と50%の削減が達成される。
提案アルゴリズムは、入力ベクトルの数がアーキテクチャで利用可能な演算ユニットの数に割り切れる限り、問題のサイズにかかわらず適用可能である。
論文 参考訳(メタデータ) (2020-12-02T12:04:16Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z) - Channel Assignment in Uplink Wireless Communication using Machine
Learning Approach [54.012791474906514]
本稿では,アップリンク無線通信システムにおけるチャネル割り当て問題について検討する。
我々の目標は、整数チャネル割り当て制約を受ける全ユーザの総和率を最大化することです。
計算複雑性が高いため、機械学習アプローチは計算効率のよい解を得るために用いられる。
論文 参考訳(メタデータ) (2020-01-12T15:54:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。