論文の概要: Cluster-Based Client Selection for Dependent Multi-Task Federated Learning in Edge Computing
- arxiv url: http://arxiv.org/abs/2510.13132v1
- Date: Wed, 15 Oct 2025 04:14:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.491343
- Title: Cluster-Based Client Selection for Dependent Multi-Task Federated Learning in Edge Computing
- Title(参考訳): エッジコンピューティングにおける依存型マルチタスクフェデレーション学習のためのクラスタベースクライアント選択
- Authors: Jieping Luo, Qiyue Li, Zhizhang Liu, Hang Qi, Jiaying Yin, Jingjin Wu,
- Abstract要約: 本稿では,モバイルエッジコンピューティング(MEC)環境におけるフェデレートラーニング(FL)におけるクライアント選択問題について検討する。
本稿では,クラスタ指向で依存性を意識したフレームワークであるCoDa-FLを提案する。
- 参考スコア(独自算出の注目度): 3.543400452178611
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the client selection problem in Federated Learning (FL) within mobile edge computing (MEC) environments, particularly under the dependent multi-task settings, to reduce the total time required to complete various learning tasks. We propose CoDa-FL, a Cluster-oriented and Dependency-aware framework designed to reduce the total required time via cluster-based client selection and dependent task assignment. Our approach considers Earth Mover's Distance (EMD) for client clustering based on their local data distributions to lower computational cost and improve communication efficiency. We derive a direct and explicit relationship between intra-cluster EMD and the number of training rounds required for convergence, thereby simplifying the otherwise complex process of obtaining the optimal solution. Additionally, we incorporate a directed acyclic graph-based task scheduling mechanism to effectively manage task dependencies. Through numerical experiments, we validate that our proposed CoDa-FL outperforms existing benchmarks by achieving faster convergence, lower communication and computational costs, and higher learning accuracy under heterogeneous MEC settings.
- Abstract(参考訳): 本研究では,モバイルエッジコンピューティング(MEC)環境におけるフェデレート学習(FL)におけるクライアント選択問題,特にマルチタスク環境下でのクライアント選択問題について検討し,各種学習タスクの完了に要する時間を削減する。
CoDa-FLはクラスタ指向で依存性を意識したフレームワークで、クラスタベースのクライアント選択と依存タスク割り当てによって必要な時間を短縮する。
提案手法では,クライアントクラスタリングのためのEarth Mover's Distance (EMD) をローカルデータ分布に基づいて検討し,計算コストの低減と通信効率の向上を図る。
本研究では,クラスタ内EMDと収束に必要なトレーニングラウンド数との直接的・明示的な関係を導出し,最適解を得るための他の複雑なプロセスを単純化する。
さらに、タスク依存を効果的に管理するために、非循環的な非循環的なタスクスケジューリング機構を組み込んだ。
数値実験により,提案したCoDa-FLは,より高速な収束,通信コストの低減,計算コストの低減,異種MEC設定での学習精度の向上により,既存のベンチマークよりも優れていることを確認した。
関連論文リスト
- TurboSVM-FL: Boosting Federated Learning through SVM Aggregation for Lazy Clients [40.687124234279274]
TurboSVM-FLは、クライアント側で追加の計算負荷を発生させることのない、新しい統合集約戦略である。
我々は、FEMNIST、CelebA、シェークスピアを含む複数のデータセット上でTurboSVM-FLを評価する。
論文 参考訳(メタデータ) (2024-01-22T14:59:11Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Effectively Heterogeneous Federated Learning: A Pairing and Split
Learning Based Approach [16.093068118849246]
本稿では,クライアントと異なる計算資源をペアリングする,新しい分割フェデレーション学習(SFL)フレームワークを提案する。
グラフエッジ選択問題として,学習遅延の最適化を再構築し,グレディアルゴリズムを提案する。
シミュレーションの結果,提案手法はFLトレーニング速度を大幅に向上し,高い性能を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-08-26T11:10:54Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - Clustered Scheduling and Communication Pipelining For Efficient Resource
Management Of Wireless Federated Learning [6.753282396352072]
本稿では,コミュニケーションパイプラインを用いて,フェデレート学習の無線スペクトル利用効率と収束速度を向上させることを提案する。
我々は、異なる設定下で最適なクライアントクラスタリングのための汎用的な定式化を行い、最適解を得るための効率的なアルゴリズムを解析的に導出する。
論文 参考訳(メタデータ) (2022-06-15T16:23:19Z) - Energy-Efficient Multi-Orchestrator Mobile Edge Learning [54.28419430315478]
Mobile Edge Learning(MEL)は、エッジデバイス上で機械学習(ML)モデルの分散トレーニングを特徴とする、協調学習パラダイムである。
MELでは、異なるデータセットで複数の学習タスクが共存する可能性がある。
本稿では, エネルギー消費, 精度, 解複雑性のトレードオフを容易にする軽量なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-02T07:37:10Z) - Straggler-Resilient Federated Learning: Leveraging the Interplay Between
Statistical Accuracy and System Heterogeneity [57.275753974812666]
フェデレーション学習は、データをローカルに保持しながら、クライアントのネットワークに分散したデータサンプルから学習する。
本稿では,学習手順を高速化するために,クライアントデータの統計的特徴を取り入れてクライアントを適応的に選択する,ストラグラー・レジリエントなフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-28T19:21:14Z) - Toward Multiple Federated Learning Services Resource Sharing in Mobile
Edge Networks [88.15736037284408]
本稿では,マルチアクセスエッジコンピューティングサーバにおいて,複数のフェデレーション付き学習サービスの新たなモデルについて検討する。
共同資源最適化とハイパーラーニング率制御の問題,すなわちMS-FEDLを提案する。
シミュレーションの結果,提案アルゴリズムの収束性能を実証した。
論文 参考訳(メタデータ) (2020-11-25T01:29:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。