論文の概要: Tram-FL: Routing-based Model Training for Decentralized Federated
Learning
- arxiv url: http://arxiv.org/abs/2308.04762v1
- Date: Wed, 9 Aug 2023 07:51:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 14:41:10.144800
- Title: Tram-FL: Routing-based Model Training for Decentralized Federated
Learning
- Title(参考訳): Tram-FL:分散学習のためのルーティングベースモデルトレーニング
- Authors: Kota Maejima, Takayuki Nishio, Asato Yamazaki, and Yuko Hara-Azumi
- Abstract要約: そこで我々は,ノード間で順次転送することで,グローバルモデルを段階的に洗練する新しいDFL手法であるTram-FLを提案する。
また、最小転送量でモデル精度を向上させることを目的とした最適経路選択のための動的モデルルーティングアルゴリズムも導入する。
MNIST, CIFAR-10, IMDbデータセットを用いた実験により, 提案したルーティングを用いたトラムFLが非IID条件下で高いモデル精度を実現することを示す。
- 参考スコア(独自算出の注目度): 2.8558942410497066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In decentralized federated learning (DFL), substantial traffic from frequent
inter-node communication and non-independent and identically distributed
(non-IID) data challenges high-accuracy model acquisition. We propose Tram-FL,
a novel DFL method, which progressively refines a global model by transferring
it sequentially amongst nodes, rather than by exchanging and aggregating local
models. We also introduce a dynamic model routing algorithm for optimal route
selection, aimed at enhancing model precision with minimal forwarding. Our
experiments using MNIST, CIFAR-10, and IMDb datasets demonstrate that Tram-FL
with the proposed routing delivers high model accuracy under non-IID
conditions, outperforming baselines while reducing communication costs.
- Abstract(参考訳): 分散フェデレーション学習(dfl)では、ノード間通信や非独立分散(非iid)データからのかなりのトラフィックが、高精度なモデル獲得に挑戦している。
局所モデルを交換・集約するのではなく,ノード間で順次転送することで,グローバルモデルを漸進的に洗練する新しいDFL手法であるTram-FLを提案する。
また、最小転送量でモデル精度を向上させることを目的とした最適経路選択のための動的モデルルーティングアルゴリズムも導入する。
MNIST, CIFAR-10, IMDbデータセットを用いた実験により, 提案したルーティングを用いたトラムFLは, 非IID条件下で高いモデル精度を実現し, 通信コストを低減し, ベースラインより優れることを示した。
関連論文リスト
- Local Superior Soups: A Catalyst for Model Merging in Cross-Silo Federated Learning [33.88701368538447]
我々は「ローカル・スーパー・スープ」と呼ばれる革新的モデルに基づくローカル・トレーニング手法を提案する。
提案手法は, 異なるクライアント間でのローカルトレーニングを強化し, 接続された低損失盆地の探索を奨励する。
広範に使われているFLデータセットにまたがって,その有効性と効率を実証した。
論文 参考訳(メタデータ) (2024-10-31T06:20:17Z) - One-Shot Sequential Federated Learning for Non-IID Data by Enhancing Local Model Diversity [26.09617693587105]
我々は,局所モデルの多様性向上戦略を提案することにより,非IIDデータに対する一発の逐次フェデレーション学習を改善する。
提案手法は,既存のワンショットPFL法よりも優れた性能を示し,最先端のワンショットSFL法と比較して精度が向上する。
論文 参考訳(メタデータ) (2024-04-18T12:31:48Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - pFedLoRA: Model-Heterogeneous Personalized Federated Learning with LoRA
Tuning [35.59830784463706]
フェデレートラーニング(FL)は、中央サーバーが複数の参加者(クライアント)を協調的に調整し、分散データをトレーニングする、新たな機械学習パラダイムである。
我々は,LoRAチューニング(pFedLoRA)に基づく,新規で効率的なモデル・ヘテロジニアス・パーソナライズド・ラーニング・フレームワークを提案する。
2つのベンチマークデータセットの実験では、pFedLoRAは6つの最先端ベースラインを上回っている。
論文 参考訳(メタデータ) (2023-10-20T05:24:28Z) - Communication Resources Constrained Hierarchical Federated Learning for
End-to-End Autonomous Driving [67.78611905156808]
本稿では,最適化に基づくコミュニケーションリソース制約付き階層型学習フレームワークを提案する。
その結果,提案したCRCHFLは収束速度を加速し,フェデレーション学習自律運転モデルの一般化を促進することがわかった。
論文 参考訳(メタデータ) (2023-06-28T12:44:59Z) - Boost Decentralized Federated Learning in Vehicular Networks by
Diversifying Data Sources [16.342217928468227]
そこで本稿では,DFLにおけるデータソースの多様化を目的としたDFL-DDS(DFL with diversified Data Sources)アルゴリズムを提案する。
具体的には、各車両は状態ベクトルを保持し、そのモデルに対する各データソースの寄与重量を記録する。
DFLの収束を高めるために、車両は、その状態ベクトルのKL分散を最小化して、各データソースの集約重量を調整する。
論文 参考訳(メタデータ) (2022-09-05T04:01:41Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Unit-Modulus Wireless Federated Learning Via Penalty Alternating
Minimization [64.76619508293966]
Wireless Federated Learning(FL)は、分散データセットから無線通信を介してグローバルパラメトリックモデルをトレーニングする、新興機械学習パラダイムである。
本稿では、ローカルモデルパラメータをアップロードし、無線通信を介してグローバルモデルパラメータを算出する無線FLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-31T08:19:54Z) - Federated Learning With Quantized Global Model Updates [84.55126371346452]
モバイル端末がローカルデータセットを使用してグローバルモデルをトレーニングできるフェデレーション学習について検討する。
本稿では,大域的モデルと局所的モデル更新の両方を,送信前に量子化する損失FL(LFL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-18T16:55:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。