論文の概要: Multi-Job Intelligent Scheduling with Cross-Device Federated Learning
- arxiv url: http://arxiv.org/abs/2211.13430v1
- Date: Thu, 24 Nov 2022 06:17:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 15:33:07.510890
- Title: Multi-Job Intelligent Scheduling with Cross-Device Federated Learning
- Title(参考訳): クロスデバイスフェデレーション学習を用いたマルチジョブインテリジェントスケジューリング
- Authors: Ji Liu, Juncheng Jia, Beichen Ma, Chendi Zhou, Jingbo Zhou, Yang Zhou,
Huaiyu Dai, Dejing Dou
- Abstract要約: フェデレートラーニング(FL)は、センシティブな生データを共有せずに、協調的なグローバル機械学習モデルのトレーニングを可能にする。
本稿では,複数のジョブを並列にトレーニングできる新しいマルチジョブFLフレームワークを提案する。
本稿では,元来の強化学習に基づくスケジューリング手法と元来のベイズ最適化に基づくスケジューリング手法を含む,複数のスケジューリング手法に基づく新しいインテリジェントスケジューリング手法を提案する。
- 参考スコア(独自算出の注目度): 65.69079337653994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years have witnessed a large amount of decentralized data in various
(edge) devices of end-users, while the decentralized data aggregation remains
complicated for machine learning jobs because of regulations and laws. As a
practical approach to handling decentralized data, Federated Learning (FL)
enables collaborative global machine learning model training without sharing
sensitive raw data. The servers schedule devices to jobs within the training
process of FL. In contrast, device scheduling with multiple jobs in FL remains
a critical and open problem. In this paper, we propose a novel multi-job FL
framework, which enables the training process of multiple jobs in parallel. The
multi-job FL framework is composed of a system model and a scheduling method.
The system model enables a parallel training process of multiple jobs, with a
cost model based on the data fairness and the training time of diverse devices
during the parallel training process. We propose a novel intelligent scheduling
approach based on multiple scheduling methods, including an original
reinforcement learning-based scheduling method and an original Bayesian
optimization-based scheduling method, which corresponds to a small cost while
scheduling devices to multiple jobs. We conduct extensive experimentation with
diverse jobs and datasets. The experimental results reveal that our proposed
approaches significantly outperform baseline approaches in terms of training
time (up to 12.73 times faster) and accuracy (up to 46.4% higher).
- Abstract(参考訳): 近年、エンドユーザーの様々な(エッジ)デバイスで大量の分散データを目撃しているが、ルールや法律のために分散データ集約は機械学習ジョブにとって複雑である。
分散データを扱う実践的なアプローチとして、連合学習(fl)はセンシティブな生データを共有することなく、協調的なグローバル機械学習モデルのトレーニングを可能にする。
サーバはFLのトレーニングプロセス内でデバイスをジョブにスケジュールする。
対照的に、FLにおける複数のジョブを持つデバイススケジューリングは、依然として重要かつオープンな問題である。
本稿では,複数のジョブを並列にトレーニングできる新しいマルチジョブFLフレームワークを提案する。
マルチジョブFLフレームワークは、システムモデルとスケジューリング方法から構成される。
システムモデルは、並列トレーニングプロセス中に多様なデバイスのデータの公平性とトレーニング時間に基づくコストモデルを用いて、複数のジョブの並列トレーニングプロセスを可能にする。
本稿では,複数ジョブにスケジューリング装置をスケジューリングしながら,少ないコストに対応するオリジナル強化学習型スケジューリング法とオリジナルベイズ最適化型スケジューリング法を含む,複数スケジューリング法に基づく新しいインテリジェントスケジューリング手法を提案する。
多様なジョブやデータセットで広範な実験を行う。
実験の結果,提案手法はトレーニング時間(最大12.73倍)と精度(最大46.4%)において,ベースラインアプローチよりも有意に優れていた。
関連論文リスト
- FedAST: Federated Asynchronous Simultaneous Training [27.492821176616815]
フェデレートラーニング(FL)は、デバイスやクライアントがプライベートデータを共有せずに機械学習(ML)モデルを協調的にトレーニングすることを可能にする。
FLにおける既存の作業の多くは、1つのタスクのモデルを効率的に学習することに集中しています。
本稿では,共通データセットを用いた複数のFLモデルの同時学習を提案する。
論文 参考訳(メタデータ) (2024-06-01T05:14:20Z) - Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - Asynchronous Multi-Model Dynamic Federated Learning over Wireless
Networks: Theory, Modeling, and Optimization [20.741776617129208]
分散機械学習(ML)の鍵となる技術として、フェデレートラーニング(FL)が登場した。
まず、システムパラメータが学習性能に与える影響を捉えるために、長方形のスケジューリングステップと関数を定式化する。
我々の分析は、デバイストレーニング変数と非同期スケジューリング決定の協調的影響に光を当てている。
論文 参考訳(メタデータ) (2023-05-22T21:39:38Z) - Scheduling and Aggregation Design for Asynchronous Federated Learning
over Wireless Networks [56.91063444859008]
Federated Learning(FL)は、デバイス上でのトレーニングとサーバベースのアグリゲーションを組み合わせた、協調的な機械学習フレームワークである。
FLシステムにおけるストラグラー問題に対処するために,周期的アグリゲーションを用いた非同期FL設計を提案する。
年齢認識の集約重み付け設計は,非同期FL設定における学習性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-12-14T17:33:01Z) - Decentralized Training of Foundation Models in Heterogeneous
Environments [77.47261769795992]
GPT-3 や PaLM のようなトレーニング基盤モデルは、非常に高価である。
ヘテロジニアスネットワーク上での分散型システムにおけるモデル並列化を用いた大規模基盤モデルのトレーニングに関する最初の研究について述べる。
論文 参考訳(メタデータ) (2022-06-02T20:19:51Z) - Efficient Device Scheduling with Multi-Job Federated Learning [64.21733164243781]
本稿では,複数のジョブの並列学習プロセスを実現するための,新しいマルチジョブフェデレーション学習フレームワークを提案する。
コストを最小化しつつ、複数のジョブに対してデバイスをスケジュールする強化学習法とベイズ最適化法を提案する。
提案手法は,トレーニング時間(最大8.67倍高速)と精度(最大44.6%高)において,ベースラインアプローチよりも有意に優れていた。
論文 参考訳(メタデータ) (2021-12-11T08:05:11Z) - Device Scheduling and Update Aggregation Policies for Asynchronous
Federated Learning [72.78668894576515]
Federated Learning (FL)は、新しく登場した分散機械学習(ML)フレームワークである。
本稿では,FLシステムにおけるトラグラー問題を排除するために,周期的なアグリゲーションを伴う非同期FLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-23T18:57:08Z) - Scheduling Policy and Power Allocation for Federated Learning in NOMA
Based MEC [21.267954799102874]
Federated Learning(FL)は、データ分散を維持しながらモデルを集中的にトレーニングできる、高度に追求された機械学習技術である。
重み付き和データレートを最大化するために、非直交多重アクセス(NOMA)設定を用いた新しいスケジューリングポリシーと電力割当方式を提案する。
シミュレーションの結果,提案手法は,NOMAベースの無線ネットワークにおいて高いFLテスト精度を実現するのに有効であることがわかった。
論文 参考訳(メタデータ) (2020-06-21T23:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。