論文の概要: Model Pruning Enables Localized and Efficient Federated Learning for
Yield Forecasting and Data Sharing
- arxiv url: http://arxiv.org/abs/2304.09876v1
- Date: Wed, 19 Apr 2023 17:53:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 15:24:19.846115
- Title: Model Pruning Enables Localized and Efficient Federated Learning for
Yield Forecasting and Data Sharing
- Title(参考訳): モデルプランニングは、収量予測とデータ共有のための局所的かつ効率的なフェデレーション学習を可能にする
- Authors: Andy Li, Milan Markovic, Peter Edwards and Georgios Leontidis
- Abstract要約: フェデレートラーニング(FL)は、アグリフード分野におけるモデルトレーニングに対する分散的なアプローチを示す。
本稿では,クライアントモデル上でのネットワークプルーニングを利用して,プルーニングされたモデルを集約する新しい技術ソリューションを提案する。
我々は大豆収量予測データセットを用いて実験を行い,FedAvgと比較して推定性能が15.5%から20%向上することが確認された。
- 参考スコア(独自算出の注目度): 6.4742178124596625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) presents a decentralized approach to model training
in the agri-food sector and offers the potential for improved machine learning
performance, while ensuring the safety and privacy of individual farms or data
silos. However, the conventional FL approach has two major limitations. First,
the heterogeneous data on individual silos can cause the global model to
perform well for some clients but not all, as the update direction on some
clients may hinder others after they are aggregated. Second, it is lacking with
respect to the efficiency perspective concerning communication costs during FL
and large model sizes. This paper proposes a new technical solution that
utilizes network pruning on client models and aggregates the pruned models.
This method enables local models to be tailored to their respective data
distribution and mitigate the data heterogeneity present in agri-food data.
Moreover, it allows for more compact models that consume less data during
transmission. We experiment with a soybean yield forecasting dataset and find
that this approach can improve inference performance by 15.5% to 20% compared
to FedAvg, while reducing local model sizes by up to 84% and the data volume
communicated between the clients and the server by 57.1% to 64.7%.
- Abstract(参考訳): フェデレートラーニング(FL)は、アグリフードセクターにおけるモデルトレーニングに対する分散型アプローチを示し、個々のファームやデータサイロの安全性とプライバシを確保しながら、機械学習のパフォーマンスを改善する可能性を提供する。
しかし、従来のFLアプローチには2つの大きな制限がある。
まず、個々のサイロに関する異種データによって、グローバルモデルが一部のクライアントでうまく機能するが、すべてではない可能性がある。
第2に,flと大規模モデルサイズにおける通信コストに関する効率的な観点が欠如している。
本稿では,クライアントモデル上でネットワークプルーニングを活用し,プルーニングモデルを集約する新しい技術ソリューションを提案する。
この方法では、各データ分布に合わせて局所モデルを調整し、アグリフードデータに存在するデータの均一性を緩和することができる。
さらに、送信時に少ないデータを消費するよりコンパクトなモデルを可能にする。
本研究では,大豆収率予測データセットを用いて,fedavgと比較して推定性能を15.5%から20%向上させるとともに,局所モデルサイズを最大84%削減し,クライアントとサーバ間で通信するデータ量を57.1%から64.7%に削減した。
関連論文リスト
- An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - The Effects of Data Imbalance Under a Federated Learning Approach for
Credit Risk Forecasting [0.0]
信用リスク予測は、商業銀行や他の金融機関が顧客に融資を許可する上で重要な役割を担っている。
従来の機械学習手法では、グローバルモデルを構築するには、機密性の高いクライアント情報を外部サーバと共有する必要がある。
フェデレートラーニング(FL)として知られる、新たに開発されたプライバシ保護分散機械学習技術により、プライベートローカルデータに直接アクセスする必要なく、グローバルモデルのトレーニングが可能になる。
論文 参考訳(メタデータ) (2024-01-14T09:15:10Z) - Efficient Personalized Federated Learning via Sparse Model-Adaptation [47.088124462925684]
Federated Learning (FL)は、複数のクライアントに対して、独自のプライベートデータを共有せずに機械学習モデルをトレーニングすることを目的としている。
疎局所モデルを適応的かつ効率的に学習し,効率的なパーソナライズFLのためのpFedGateを提案する。
我々は,pFedGateが最先端手法よりも優れたグローバル精度,個人精度,効率性を同時に達成できることを示す。
論文 参考訳(メタデータ) (2023-05-04T12:21:34Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Data Selection for Efficient Model Update in Federated Learning [0.07614628596146598]
本稿では,グローバルモデルのトレーニングに必要なローカルデータの量を削減することを提案する。
本手法では, 局所データの特徴により敏感な部分と, 一般特徴抽出のための下位部分と, 上位部分とにモデルを分割する。
実験の結果,クライアントデータの特徴をグローバルモデルに転送できる地域データは1%未満であることがわかった。
論文 参考訳(メタデータ) (2021-11-05T14:07:06Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - FedProf: Optimizing Federated Learning with Dynamic Data Profiling [9.74942069718191]
フェデレートラーニング(FL)は、分散データから学ぶためのプライバシ保護ソリューションとして大きな可能性を示している。
クライアントの大多数は、バイアス、ノイズ、あるいは無関係な低品質のデータのみを保有している。
本研究では,データプライバシを侵害することなくFLを最適化するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-02T20:10:14Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。