論文の概要: PA-CFL: Privacy-Adaptive Clustered Federated Learning for Transformer-Based Sales Forecasting on Heterogeneous Retail Data
- arxiv url: http://arxiv.org/abs/2503.12220v2
- Date: Fri, 21 Mar 2025 17:13:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:53:45.435853
- Title: PA-CFL: Privacy-Adaptive Clustered Federated Learning for Transformer-Based Sales Forecasting on Heterogeneous Retail Data
- Title(参考訳): PA-CFL:不均一小売データに基づくトランスフォーマーベースの販売予測のためのプライバシ適応クラスタ化フェデレーション学習
- Authors: Yunbo Long, Liming Xu, Ge Zheng, Alexandra Brintrup,
- Abstract要約: フェデレートラーニング(FL)により、小売店はプライバシを維持しながら需要予測のためのモデルパラメータを共有できる。
異種小売データの需要予測に適したプライバシ適応クラスタ型フェデレートラーニング(PA-CFL)を提案する。
- 参考スコア(独自算出の注目度): 47.745068077169954
- License:
- Abstract: Federated learning (FL) enables retailers to share model parameters for demand forecasting while maintaining privacy. However, heterogeneous data across diverse regions, driven by factors such as varying consumer behavior, poses challenges to the effectiveness of federated learning. To tackle this challenge, we propose Privacy-Adaptive Clustered Federated Learning (PA-CFL) tailored for demand forecasting on heterogeneous retail data. By leveraging differential privacy and feature importance distribution, PA-CFL groups retailers into distinct ``bubbles'', each forming its own federated learning system to effectively isolate data heterogeneity. Within each bubble, Transformer models are designed to predict local sales for each client. Our experiments demonstrate that PA-CFL significantly surpasses FedAvg and outperforms local learning in demand forecasting performance across all participating clients. Compared to local learning, PA-CFL achieves a 5.4% improvement in R^2, a 69% reduction in RMSE, and a 45% decrease in MAE. Our approach enables effective FL through adaptive adjustments to diverse noise levels and the range of clients participating in each bubble. By grouping participants and proactively filtering out high-risk clients, PA-CFL mitigates potential threats to the FL system. The findings demonstrate PA-CFL's ability to enhance federated learning in time series prediction tasks with heterogeneous data, achieving a balance between forecasting accuracy and privacy preservation in retail applications. Additionally, PA-CFL's capability to detect and neutralize poisoned data from clients enhances the system's robustness and reliability.
- Abstract(参考訳): フェデレートラーニング(FL)により、小売店はプライバシを維持しながら需要予測のためのモデルパラメータを共有できる。
しかし、様々な消費者行動などの要因によって駆動される多種多様な地域にわたる異種データが、連合学習の有効性に課題を提起する。
この課題に対処するために、異種小売データに対する需要予測に適したプライバシ適応クラスタ型フェデレートラーニング(PA-CFL)を提案する。
異なるプライバシと特徴的重要性の分布を活用することにより、PA-CFLは小売業者を‘バブル’に分類し、それぞれが独自のフェデレーション学習システムを形成して、データの不均一性を効果的に分離する。
各バブル内では、Transformerモデルは各クライアントのローカルセールスを予測するように設計されている。
実験の結果,PA-CFLはFedAvgをはるかに上回り,全クライアントの需要予測性能に優れていた。
局所学習と比較して,PA-CFLはR^2が5.4%,RMSEが69%,MAEが45%改善した。
提案手法は,各種ノイズレベルと各バブルに参加するクライアントの範囲を適応調整することで,有効なFLを実現する。
参加者をグループ化し、リスクの高いクライアントを積極的にフィルタリングすることで、PA-CFLはFLシステムに対する潜在的な脅威を軽減する。
その結果,PA-CFLは時系列予測タスクにおけるフェデレーション学習をヘテロジニアスなデータで強化し,小売アプリケーションにおける予測精度とプライバシ保護のバランスを保った。
さらに、PA-CFLがクライアントから有毒データを検出および中和する能力により、システムの堅牢性と信頼性が向上する。
関連論文リスト
- How Can Incentives and Cut Layer Selection Influence Data Contribution in Split Federated Learning? [49.16923922018379]
スプリット・フェデレーション・ラーニング(SFL)は、フェデレーションとスプリット・ラーニングの利点を組み合わせることで、有望なアプローチとして登場した。
階層的意思決定手法を用いて,単一リーダマルチフォロワStackelbergゲームとして定式化された問題をモデル化する。
以上の結果から,Stackelberg平衡解はクライアントとSFLモデル所有者の両方の実用性を最大化することがわかった。
論文 参考訳(メタデータ) (2024-12-10T06:24:08Z) - FedClust: Optimizing Federated Learning on Non-IID Data through
Weight-Driven Client Clustering [28.057411252785176]
Federated Learning(FL)は、分散型デバイス上で、ローカルデータを公開せずにコラボレーティブなモデルトレーニングを可能にする、新興の分散機械学習パラダイムである。
本稿では,局所モデル重みとクライアントデータ分布の相関を利用した新しいCFL手法であるFedClustを提案する。
論文 参考訳(メタデータ) (2024-03-07T01:50:36Z) - Contrastive encoder pre-training-based clustered federated learning for
heterogeneous data [17.580390632874046]
フェデレートラーニング(FL)は、分散クライアントがデータのプライバシを保持しながら、グローバルモデルを協調的にトレーニングすることを可能にする。
本稿では,モデル収束とFLシステム全体の性能を改善するために,CP-CFL(Contrative Pre-training-based Clustered Federated Learning)を提案する。
論文 参考訳(メタデータ) (2023-11-28T05:44:26Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Personalized Federated Learning on Long-Tailed Data via Adversarial
Feature Augmentation [24.679535905451758]
PFLは、プライバシを保存する方法で、すべてのクライアントの知識に基づいて、各クライアントのパーソナライズされたモデルを学ぶことを目的としている。
既存のPFL法では、全てのクライアントにわたる基礎となるグローバルデータが、ロングテール分布を考慮せずに均一に分散されていると仮定している。
PFLにおけるこの共同問題に対処するために,FedAFA(Federated Learning with Adversarial Feature Augmentation)を提案する。
論文 参考訳(メタデータ) (2023-03-27T13:00:20Z) - Stochastic Clustered Federated Learning [21.811496586350653]
本稿では,一般の非IID問題に対する新しいクラスタ化フェデレーション学習手法であるStoCFLを提案する。
詳細は、StoCFLは、任意の割合のクライアント参加と新しく加入したクライアントをサポートする柔軟なCFLフレームワークを実装しています。
その結果,StoCFLはクラスタ数の不明な場合でも,有望なクラスタ結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-03-02T01:39:16Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Flexible Clustered Federated Learning for Client-Level Data Distribution
Shift [13.759582953827229]
フレキシブルクラスタ型連合学習(CFL)フレームワークFlexCFLを提案する。
FEMNISTではFedAvgに比べて,FlexCFLでは絶対テスト精度が+10.6%向上することが示された。
また、いくつかのオープンデータセット上でFlexCFLを評価し、関連するCFLフレームワークと比較した。
論文 参考訳(メタデータ) (2021-08-22T15:11:39Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。