論文の概要: FedX: Explanation-Guided Pruning for Communication-Efficient Federated Learning in Remote Sensing
- arxiv url: http://arxiv.org/abs/2508.06256v1
- Date: Fri, 08 Aug 2025 12:21:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.224058
- Title: FedX: Explanation-Guided Pruning for Communication-Efficient Federated Learning in Remote Sensing
- Title(参考訳): FedX:遠隔センシングにおけるコミュニケーション効率の高いフェデレーション学習のための説明誘導型プランニング
- Authors: Barış Büyüktaş, Jonas Klotz, Begüm Demir,
- Abstract要約: フェデレーション学習はリモートセンシング(RS)画像分類タスクに適した学習パラダイムである。
FLをRSタスクに適用する上で重要な課題は、クライアントと中央サーバ間の大規模なモデル更新の頻繁な交換に起因する通信オーバーヘッドである。
我々は、説明誘導プルーニングを用いて通信オーバーヘッドを低減する新しい戦略(FedX)を提案する。
- 参考スコア(独自算出の注目度): 2.725507329935916
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables the collaborative training of deep neural networks across decentralized data archives (i.e., clients), where each client stores data locally and only shares model updates with a central server. This makes FL a suitable learning paradigm for remote sensing (RS) image classification tasks, where data centralization may be restricted due to legal and privacy constraints. However, a key challenge in applying FL to RS tasks is the communication overhead caused by the frequent exchange of large model updates between clients and the central server. To address this issue, in this paper we propose a novel strategy (denoted as FedX) that uses explanation-guided pruning to reduce communication overhead by minimizing the size of the transmitted models without compromising performance. FedX leverages backpropagation-based explanation methods to estimate the task-specific importance of model components and prunes the least relevant ones at the central server. The resulting sparse global model is then sent to clients, substantially reducing communication overhead. We evaluate FedX on multi-label scene classification using the BigEarthNet-S2 dataset and single-label scene classification using the EuroSAT dataset. Experimental results show the success of FedX in significantly reducing the number of shared model parameters while enhancing the generalization capability of the global model, compared to both unpruned model and state-of-the-art pruning methods. The code of FedX will be available at https://git.tu-berlin.de/rsim/FedX.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散データアーカイブ(クライアントなど)をまたいだディープニューラルネットワークの協調トレーニングを可能にする。
これにより、FLはリモートセンシング(RS)画像分類タスクに適した学習パラダイムとなり、法とプライバシーの制約によりデータの集中化が制限される可能性がある。
しかし、 FL を RS タスクに適用する上での重要な課題は、クライアントと中央サーバ間の大規模なモデル更新の頻繁な交換に起因する通信オーバーヘッドである。
そこで本論文では,提案手法を用いて提案手法を提案する。本手法では,性能を損なうことなく,伝送モデルのサイズを最小化することにより,通信オーバーヘッドを最小化するための説明誘導プルーニング(FedX)を提案する。
FedXは、バックプロパゲーションに基づく説明手法を活用して、モデルコンポーネントのタスク固有の重要性を推定し、中央サーバで最も関係の低いものを引き出す。
結果として得られた疎グローバルモデルがクライアントに送信され、通信オーバーヘッドを大幅に削減する。
The BigEarthNet-S2 data and single-label scene classification using the EuroSAT data。
実験結果から,FedXが大域的モデルの一般化能力を高めつつ,共有モデルパラメータの数を大幅に削減することに成功した。
FedXのコードはhttps://git.tu-berlin.de/rsim/FedXで入手できる。
関連論文リスト
- Federated Split Learning with Improved Communication and Storage Efficiency [9.277834710955766]
フェデレーテッド・ラーニング(FL)は、一般的な分散機械学習(ML)ソリューションの1つだが、エッジデバイスにおける通信と計算のコストがかなり高い。
本稿では,サーバに単一モデルを保持しながらクライアントをローカルに更新する補助ネットワークを利用した,新しい通信・記憶効率の高いフェデレーション分割学習手法であるCSE-FSLを提案する。
論文 参考訳(メタデータ) (2025-07-21T17:21:16Z) - Communication-Efficient Federated Learning Based on Explanation-Guided Pruning for Remote Sensing Image Classification [2.725507329935916]
Federated Learning(FL)は、複数のクライアントが協力してグローバルモデルをトレーニングする分散機械学習パラダイムである。
クライアントと中央サーバの間で送信されるモデル更新の量が多いため、ほとんどのFLシステムは高い転送コストを伴っている。
本稿では、RS画像分類の文脈において、通信効率の高いFLのための説明誘導型プルーニング戦略を提案する。
論文 参考訳(メタデータ) (2025-01-20T13:59:41Z) - FedCode: Communication-Efficient Federated Learning via Transferring
Codebooks [3.004066195320147]
Federated Learning(FL)は、分散機械学習パラダイムで、分散ローカルデータからモデルを学ぶことができる。
既存のアプローチは、これに対処するためにプルーニングや重みクラスタリングのようなモデル圧縮技術に依存している。
我々は、クライアントがコードブックのみを送信するFedCodeを提案する。
論文 参考訳(メタデータ) (2023-11-15T12:06:32Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - FedAvg with Fine Tuning: Local Updates Lead to Representation Learning [54.65133770989836]
Federated Averaging (FedAvg)アルゴリズムは、クライアントノードでのいくつかのローカルな勾配更新と、サーバでのモデル平均更新の交互化で構成されている。
我々は、FedAvgの出力の一般化の背景には、クライアントのタスク間の共通データ表現を学習する能力があることを示す。
異種データを用いたフェデレーション画像分類におけるFedAvgの表現学習能力を示す実証的証拠も提供する。
論文 参考訳(メタデータ) (2022-05-27T00:55:24Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Comfetch: Federated Learning of Large Networks on Constrained Clients
via Sketching [28.990067638230254]
フェデレートラーニング(FL)は、エッジ上でのプライベートおよびコラボレーティブモデルトレーニングの一般的なパラダイムである。
我々は,グローバルニューラルネットワークの表現を用いて,クライアントが大規模ネットワークをトレーニングできる新しいアルゴリズムであるComdirectionalを提案する。
論文 参考訳(メタデータ) (2021-09-17T04:48:42Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。