論文の概要: Chisme: Fully Decentralized Differentiated Deep Learning for Edge Intelligence
- arxiv url: http://arxiv.org/abs/2505.09854v1
- Date: Wed, 14 May 2025 23:29:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.135715
- Title: Chisme: Fully Decentralized Differentiated Deep Learning for Edge Intelligence
- Title(参考訳): Chisme: エッジインテリジェンスのための完全に分散化されたディープラーニング
- Authors: Harikrishna Kuttivelil, Katia Obraczka,
- Abstract要約: 本稿では,ネットワークエッジに堅牢なインテリジェンスを実装する際の課題に対処する,新しいプロトコルスイートであるChismeを紹介する。
Chismeには同期DFL(Chisme-DFL)と非同期GL(Chisme-GL)の両方が含まれている。
ネットワークシナリオにおける分散データおよび異種データのモデルトレーニングにおいて,Chisme手法が標準手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 1.312141043398756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As demand for intelligent services rises and edge devices become more capable, distributed learning at the network edge has emerged as a key enabling technology. While existing paradigms like federated learning (FL) and decentralized FL (DFL) enable privacy-preserving distributed learning in many scenarios, they face potential challenges in connectivity and synchronization imposed by resource-constrained and infrastructure-less environments. While more robust, gossip learning (GL) algorithms have generally been designed for homogeneous data distributions and may not suit all contexts. This paper introduces Chisme, a novel suite of protocols designed to address the challenges of implementing robust intelligence in the network edge, characterized by heterogeneous data distributions, episodic connectivity, and lack of infrastructure. Chisme includes both synchronous DFL (Chisme-DFL) and asynchronous GL (Chisme-GL) variants that enable collaborative yet decentralized model training that considers underlying data heterogeneity. We introduce a data similarity heuristic that allows agents to opportunistically infer affinity with each other using the existing communication of model updates in decentralized FL and GL. We leverage the heuristic to extend DFL's model aggregation and GL's model merge mechanisms for better personalized training while maintaining collaboration. While Chisme-DFL is a synchronous decentralized approach whose resource utilization scales linearly with network size, Chisme-GL is fully asynchronous and has a lower, constant resource requirement independent of network size. We demonstrate that Chisme methods outperform their standard counterparts in model training over distributed and heterogeneous data in network scenarios ranging from less connected and reliable networks to fully connected and lossless networks.
- Abstract(参考訳): インテリジェントなサービスの需要が増加し、エッジデバイスがより有能になるにつれて、ネットワークエッジでの分散学習が重要な実現技術として現れています。
フェデレートラーニング(FL)や分散FL(DFL)といった既存のパラダイムは、多くのシナリオでプライバシ保護の分散ラーニングを実現していますが、リソース制約やインフラストラクチャレス環境によって課される接続性と同期に関する潜在的な課題に直面しています。
より堅牢ではあるが、ゴシップ学習(GL)アルゴリズムは概して同質なデータ分散のために設計されており、全ての文脈に適合しない。
本稿では,ネットワークエッジに堅牢なインテリジェンスを実装するための新しいプロトコルであるChismeを紹介する。
Chismeには同期DFL(Chisme-DFL)と非同期GL(Chisme-GL)の両方が含まれている。
本稿では,分散FLとGLにおけるモデル更新の通信を利用して,エージェント同士の親和性を相互に推測するデータ類似性ヒューリスティックを提案する。
我々はこのヒューリスティックを利用してDFLのモデルアグリゲーションとGLのモデルマージ機構を拡張し、コラボレーションを維持しながらパーソナライズされたトレーニングを改善する。
Chisme-DFLは、リソース利用がネットワークサイズと線形にスケールする同期分散アプローチであるのに対し、Chisme-GLは完全に非同期であり、ネットワークサイズに依存しない低いリソース要求を持つ。
ネットワークシナリオにおける分散データおよび異種データのモデルトレーニングにおいて,ネットワークの信頼性が低いネットワークから完全に接続されたネットワークやロスレスネットワークに至るまで,Chisme手法が標準的手法よりも優れていることを示す。
関連論文リスト
- Performance Analysis of Decentralized Federated Learning Deployments [1.7249361224827533]
これらの課題に対処するために、分散フェデレートラーニング(DFL)が導入されている。
中央サーバに頼ることなく、参加するデバイス間の直接的なコラボレーションを促進する。
本研究は、DFLモデルの収束と一般化能力に影響を与える決定的な要因について考察する。
論文 参考訳(メタデータ) (2025-03-14T19:37:13Z) - DRACO: Decentralized Asynchronous Federated Learning over Row-Stochastic Wireless Networks [7.389425875982468]
DRACOは、行確率ゴシップ無線ネットワーク上での分散非同期Descent(SGD)の新しい手法である。
我々のアプローチは、分散ネットワーク内のエッジデバイスが、連続したタイムラインに沿ってローカルトレーニングとモデル交換を行うことを可能にする。
我々の数値実験は提案手法の有効性を裏付けるものである。
論文 参考訳(メタデータ) (2024-06-19T13:17:28Z) - When Swarm Learning meets energy series data: A decentralized collaborative learning design based on blockchain [10.099134773737939]
機械学習モデルは、将来のエネルギー生産または消費を予測する機能を提供する。
しかし、特定のエネルギーセクター内の法と政策の制約は、様々な情報源のデータを利用する際に技術的ハードルをもたらす。
本稿では,集中型サーバをブロックチェーンベースの分散ネットワークに置き換えるSwarm Learningスキームを提案する。
論文 参考訳(メタデータ) (2024-06-07T08:42:26Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Event-Triggered Decentralized Federated Learning over
Resource-Constrained Edge Devices [12.513477328344255]
Federated Learning (FL)は分散機械学習(ML)のための技術である
従来のFLアルゴリズムでは、エッジで訓練されたモデルを中央サーバに定期的に送信して集約する。
我々は、デバイスが協調的なコンセンサス形成を通じてモデルアグリゲーションを行う完全分散FLのための新しい手法を開発した。
論文 参考訳(メタデータ) (2022-11-23T00:04:05Z) - SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks [56.68149211499535]
フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
本稿では、FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2022-03-26T15:06:13Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。