論文の概要: Caching Techniques for Reducing the Communication Cost of Federated Learning in IoT Environments
- arxiv url: http://arxiv.org/abs/2507.17772v1
- Date: Sat, 19 Jul 2025 17:02:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:42.209219
- Title: Caching Techniques for Reducing the Communication Cost of Federated Learning in IoT Environments
- Title(参考訳): IoT環境におけるフェデレーション学習の通信コスト削減のためのキャッシング技術
- Authors: Ahmad Alhonainy, Praveen Rao,
- Abstract要約: フェデレートラーニング(FL)は、複数のデバイスがデータを集中せずに共有モデルを共同でトレーニングすることを可能にする。
本稿では、不必要なモデル更新送信を減らすために、キャッシュ戦略(FIFO、LRU、プライオリティベース)を紹介する。
- 参考スコア(独自算出の注目度): 2.942616054218564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) allows multiple distributed devices to jointly train a shared model without centralizing data, but communication cost remains a major bottleneck, especially in resource-constrained environments. This paper introduces caching strategies - FIFO, LRU, and Priority-Based - to reduce unnecessary model update transmissions. By selectively forwarding significant updates, our approach lowers bandwidth usage while maintaining model accuracy. Experiments on CIFAR-10 and medical datasets show reduced communication with minimal accuracy loss. Results confirm that intelligent caching improves scalability, memory efficiency, and supports reliable FL in edge IoT networks, making it practical for deployment in smart cities, healthcare, and other latency-sensitive applications.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数の分散デバイスがデータの集中化なしに共有モデルを共同で訓練することを可能にするが、通信コストは、特にリソース制約のある環境では大きなボトルネックのままである。
本稿では、不必要なモデル更新送信を減らすために、キャッシュ戦略(FIFO、LRU、プライオリティベース)を紹介する。
重要な更新を選択的にフォワードすることで、モデルの精度を維持しながら帯域幅を削減できる。
CIFAR-10と医療データセットの実験は、最小の精度の損失で通信を減らしたことを示している。
その結果、インテリジェントキャッシングはスケーラビリティ、メモリ効率を改善し、エッジIoTネットワークにおける信頼性の高いFLをサポートし、スマートシティやヘルスケア、その他のレイテンシに敏感なアプリケーションへのデプロイに実用的であることが確認された。
関連論文リスト
- Lightweight Federated Learning over Wireless Edge Networks [83.4818741890634]
Federated (FL) はネットワークエッジの代替品であるが、無線ネットワークでは代替品である。
閉形式式FL収束ギャップ伝送パワー,モデルプルーニング誤差,量子化を導出する。
LTFLは、実世界のデータセットの実験において最先端のスキームよりも優れている。
論文 参考訳(メタデータ) (2025-07-13T09:14:17Z) - Soft-Label Caching and Sharpening for Communication-Efficient Federated Distillation [2.1617267802631366]
フェデレートラーニング(FL)は、分散クライアント間のコラボレーティブモデルトレーニングを可能にし、データをローカルに保つことでプライバシを向上する。
同期ソフトラベルキャッシングと拡張エントロピー削減アグリゲーション(Enhanced ERA)機構を統合した新しいフレームワークであるSCARLETを提案する。
SCARLETはキャッシュされたソフトラベルを再利用することで冗長な通信を最小化し、既存の方法と比較して最大50%の通信コスト削減を実現している。
論文 参考訳(メタデータ) (2025-04-28T09:04:30Z) - Adaptive Quantization Resolution and Power Control for Federated Learning over Cell-free Networks [41.23236059700041]
Federated Learning(FL)は、ローカルモデルの更新を生のデータセットではなくサーバと交換することで、グローバルモデルをトレーニングする分散学習フレームワークである。
セルフリーの大規模マルチインプット多重出力(CFmMIMO)は、同じ時間/周波数のリソースを同じレートで多くのユーザに提供する、有望なソリューションである。
本稿では, フラッグラー効果を緩和するために, FLアプリケーションと物理層を同時最適化する。
論文 参考訳(メタデータ) (2024-12-14T16:08:05Z) - Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - Hyperdimensional Computing Empowered Federated Foundation Model over Wireless Networks for Metaverse [56.384390765357004]
本稿では,新しい基礎モデルのための統合型分割学習と超次元計算フレームワークを提案する。
この新しいアプローチは通信コスト、計算負荷、プライバシーリスクを低減し、Metaverseのリソース制約されたエッジデバイスに適している。
論文 参考訳(メタデータ) (2024-08-26T17:03:14Z) - FLrce: Resource-Efficient Federated Learning with Early-Stopping Strategy [7.963276533979389]
フェデレートラーニング(FL)がIoT(Internet of Things)で大人気
FLrceは、関係ベースのクライアント選択と早期停止戦略を備えた効率的なFLフレームワークである。
その結果,既存のFLフレームワークと比較してFLrceは計算効率を少なくとも30%,通信効率を43%向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-15T10:13:44Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - FLARE: Detection and Mitigation of Concept Drift for Federated Learning
based IoT Deployments [2.7776688429637466]
FLAREは、トレーニングデータを条件付きで転送し、エッジとセンサのエンドポイント間でモデルをデプロイする、軽量なデュアルスケジューリングFLフレームワークである。
固定間隔スケジューリング法と比較して,FLAREはエッジノードとセンサノード間で交換されるデータ量を大幅に削減できることを示す。
少なくとも16倍のレイテンシで、コンセプトドリフトを反応的に検出できる。
論文 参考訳(メタデータ) (2023-05-15T10:09:07Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。