論文の概要: Chisme: Fully Decentralized Differentiated Deep Learning for IoT Intelligence
- arxiv url: http://arxiv.org/abs/2505.09854v2
- Date: Wed, 08 Oct 2025 20:30:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 15:34:28.471382
- Title: Chisme: Fully Decentralized Differentiated Deep Learning for IoT Intelligence
- Title(参考訳): Chisme: IoTインテリジェンスのための完全な分散分散ディープラーニング
- Authors: Harikrishna Kuttivelil, Katia Obraczka,
- Abstract要約: 本稿では,完全分散型分散学習アルゴリズムChismeを紹介する。
Chismeは、ネットワークエッジコンテキストで堅牢なインテリジェンスを実装する上での課題に対処する。
Chismeを使用するクライアントは、より高速なトレーニング収束、トレーニング後の最終損失の低減、クライアント間のパフォーマンス格差の低減を示す。
- 参考スコア(独自算出の注目度): 2.5137859989323537
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As end-user device capability increases and demand for intelligent services at the Internet's edge rise, distributed learning has emerged as a key enabling technology. Existing approaches like federated learning (FL) and decentralized FL (DFL) enable distributed learning among clients, while gossip learning (GL) approaches have emerged to address the potential challenges in resource-constrained, connectivity-challenged infrastructure-less environments. However, most distributed learning approaches assume largely homogeneous data distributions and may not consider or exploit the heterogeneity of clients and their underlying data distributions. This paper introduces Chisme, a novel fully decentralized distributed learning algorithm designed to address the challenges of implementing robust intelligence in network edge contexts characterized by heterogeneous data distributions, episodic connectivity, and sparse network infrastructure. Chisme leverages cosine similarity-based data affinity heuristics calculated from received model exchanges to inform how much influence received models have when merging into the local model. By doing so, it facilitates stronger merging influence between clients with more similar model learning progressions, enabling clients to strategically balance between broader collaboration to build more general knowledge and more selective collaboration to build specific knowledge. We evaluate Chisme against contemporary approaches using image recognition and time-series prediction scenarios while considering different network connectivity conditions, representative of real-world distributed intelligent systems. Our experiments demonstrate that Chisme outperforms state-of-the-art edge intelligence approaches in almost every case -- clients using Chisme exhibit faster training convergence, lower final loss after training, and lower performance disparity between clients.
- Abstract(参考訳): エンドユーザーデバイス能力が向上し、インターネットのエッジライジングにおけるインテリジェントサービスへの需要が高まるにつれ、分散学習が鍵となる技術として登場してきた。
既存のFL(Federated Learning)やDFL(Decentralized FL)のようなアプローチは、クライアント間の分散学習を可能にし、Gossip Learning(GL)アプローチは、リソースに制約のある接続性のないインフラストラクチャレス環境における潜在的な課題に対処する。
しかし、ほとんどの分散学習手法は、主に均質なデータ分布を仮定し、クライアントとその基盤となるデータ分布の不均一性を考慮または利用しない。
本稿では、異種データ分散、エピソード接続、スパースネットワークインフラストラクチャを特徴とするネットワークエッジコンテキストにおける堅牢なインテリジェンスの実現という課題に対処するために設計された、完全に分散化された分散学習アルゴリズムであるChismeを紹介する。
Chismeは、受信したモデル交換から計算されたコサイン類似性に基づくデータ親和性ヒューリスティックを活用し、ローカルモデルにマージする際に、受信したモデルにどの程度の影響があるかを知らせる。
これにより、より類似したモデル学習の進展を持つクライアント間のより強力なマージ効果が実現され、より一般的な知識を構築するためのより広範なコラボレーションと、特定の知識を構築するためのより選択的なコラボレーションを戦略的にバランスできるようになります。
我々は、実世界の分散インテリジェントシステムを代表する異なるネットワーク接続条件を考慮しつつ、画像認識と時系列予測のシナリオを用いて、現代のアプローチに対するChismeの評価を行った。
我々の実験では、Chismeは最先端のエッジインテリジェンスアプローチよりも優れており、Chismeを使用したクライアントは、より高速なトレーニング収束、トレーニング後の最終損失の低減、クライアント間のパフォーマンス格差の低減を実現している。
関連論文リスト
- Performance Analysis of Decentralized Federated Learning Deployments [1.7249361224827533]
これらの課題に対処するために、分散フェデレートラーニング(DFL)が導入されている。
中央サーバに頼ることなく、参加するデバイス間の直接的なコラボレーションを促進する。
本研究は、DFLモデルの収束と一般化能力に影響を与える決定的な要因について考察する。
論文 参考訳(メタデータ) (2025-03-14T19:37:13Z) - DRACO: Decentralized Asynchronous Federated Learning over Row-Stochastic Wireless Networks [7.389425875982468]
DRACOは、行確率ゴシップ無線ネットワーク上での分散非同期Descent(SGD)の新しい手法である。
我々のアプローチは、分散ネットワーク内のエッジデバイスが、連続したタイムラインに沿ってローカルトレーニングとモデル交換を行うことを可能にする。
我々の数値実験は提案手法の有効性を裏付けるものである。
論文 参考訳(メタデータ) (2024-06-19T13:17:28Z) - When Swarm Learning meets energy series data: A decentralized collaborative learning design based on blockchain [10.099134773737939]
機械学習モデルは、将来のエネルギー生産または消費を予測する機能を提供する。
しかし、特定のエネルギーセクター内の法と政策の制約は、様々な情報源のデータを利用する際に技術的ハードルをもたらす。
本稿では,集中型サーバをブロックチェーンベースの分散ネットワークに置き換えるSwarm Learningスキームを提案する。
論文 参考訳(メタデータ) (2024-06-07T08:42:26Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - Event-Triggered Decentralized Federated Learning over
Resource-Constrained Edge Devices [12.513477328344255]
Federated Learning (FL)は分散機械学習(ML)のための技術である
従来のFLアルゴリズムでは、エッジで訓練されたモデルを中央サーバに定期的に送信して集約する。
我々は、デバイスが協調的なコンセンサス形成を通じてモデルアグリゲーションを行う完全分散FLのための新しい手法を開発した。
論文 参考訳(メタデータ) (2022-11-23T00:04:05Z) - SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks [56.68149211499535]
フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
本稿では、FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2022-03-26T15:06:13Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - Joint Superposition Coding and Training for Federated Learning over
Multi-Width Neural Networks [52.93232352968347]
本稿では,2つの相乗的技術,フェデレートラーニング(FL)と幅調整可能なスリムブルニューラルネットワーク(SNN)を統合することを目的とする。
FLは、ローカルに訓練されたモバイルデバイスのモデルを交換することによって、データのプライバシを保護している。しかしながら、SNNは、特に時間変化のあるチャネル条件との無線接続下では、非自明である。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:17:17Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。