論文の概要: Feature Matching Data Synthesis for Non-IID Federated Learning
- arxiv url: http://arxiv.org/abs/2308.04761v1
- Date: Wed, 9 Aug 2023 07:49:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 14:40:54.083293
- Title: Feature Matching Data Synthesis for Non-IID Federated Learning
- Title(参考訳): 非IIDフェデレーション学習のための特徴マッチングデータ合成
- Authors: Zijian Li, Yuchang Sun, Jiawei Shao, Yuyi Mao, Jessie Hui Wang, Jun
Zhang
- Abstract要約: フェデレーション学習(FL)は、中央サーバでデータを収集することなく、エッジデバイス上でニューラルネットワークをトレーニングする。
本稿では,局所モデル以外の補助データを共有するハード特徴マッチングデータ合成(HFMDS)手法を提案する。
プライバシーの保存性を向上するため,本研究では,実際の特徴を決定境界に向けて伝達する機能拡張手法を提案する。
- 参考スコア(独自算出の注目度): 7.740333805796447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has emerged as a privacy-preserving paradigm that
trains neural networks on edge devices without collecting data at a central
server. However, FL encounters an inherent challenge in dealing with
non-independent and identically distributed (non-IID) data among devices. To
address this challenge, this paper proposes a hard feature matching data
synthesis (HFMDS) method to share auxiliary data besides local models.
Specifically, synthetic data are generated by learning the essential
class-relevant features of real samples and discarding the redundant features,
which helps to effectively tackle the non-IID issue. For better privacy
preservation, we propose a hard feature augmentation method to transfer real
features towards the decision boundary, with which the synthetic data not only
improve the model generalization but also erase the information of real
features. By integrating the proposed HFMDS method with FL, we present a novel
FL framework with data augmentation to relieve data heterogeneity. The
theoretical analysis highlights the effectiveness of our proposed data
synthesis method in solving the non-IID challenge. Simulation results further
demonstrate that our proposed HFMDS-FL algorithm outperforms the baselines in
terms of accuracy, privacy preservation, and computational cost on various
benchmark datasets.
- Abstract(参考訳): federated learning(fl)は、中央サーバでデータを収集することなくエッジデバイス上でニューラルネットワークをトレーニングする、プライバシ保護パラダイムとして登場した。
しかし、flはデバイス間で非独立かつ同一の分散(非iid)データを扱うという固有の課題に遭遇する。
この課題に対処するため,本研究では,局所モデル以外の補助データを共有するハード特徴マッチングデータ合成(HFMDS)手法を提案する。
具体的には、実検体の本質的なクラス関連特徴を学習し、冗長な特徴を捨てることで合成データを生成し、非IID問題に効果的に取り組むのに役立つ。
より優れたプライバシー保護のために,本研究では,モデル一般化を改良するだけでなく,実際の特徴情報も消去する,実際の特徴を決定境界に向けて伝達する機能拡張手法を提案する。
提案手法をFLと統合することにより,データの不均一性を緩和するデータ拡張を伴う新しいFLフレームワークを提案する。
理論的解析は,提案手法が非IID課題の解決に有効であることを示す。
さらにシミュレーションの結果,提案したHFMDS-FLアルゴリズムは,様々なベンチマークデータセットの精度,プライバシ保護,計算コストにおいて,ベースラインよりも優れていた。
関連論文リスト
- A review on different techniques used to combat the non-IID and
heterogeneous nature of data in FL [0.0]
Federated Learning(FL)は、複数のエッジデバイス間で協調的なモデルトレーニングを可能にする機械学習アプローチである。
FLの重要性は、医療や金融などの業界で特に顕著であり、データのプライバシが最重要視されている。
この報告は、非IIDおよび異種データから生じる問題を掘り下げ、これらの課題に対処するために設計された現在のアルゴリズムを探求する。
論文 参考訳(メタデータ) (2024-01-01T16:34:00Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and
Non-smooth Problems with Model Sparsification [54.767648945613004]
フェデレートラーニング(FL)は急速に成長している分野として認識されている。
パラメータの非平滑性と非共有性は、FLアプリケーションで一般的である。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Filling the Missing: Exploring Generative AI for Enhanced Federated
Learning over Heterogeneous Mobile Edge Devices [72.61177465035031]
ローカルデータのFIMI(FIlling the MIssing)部分を活用することにより,これらの課題に対処する,AIを活用した創発的なフェデレーション学習を提案する。
実験の結果,FIMIはデバイス側エネルギーの最大50%を節約し,目標とするグローバルテスト精度を達成できることがわかった。
論文 参考訳(メタデータ) (2023-10-21T12:07:04Z) - FedSym: Unleashing the Power of Entropy for Benchmarking the Algorithms
for Federated Learning [1.4656078321003647]
Federated Learning(FL)は、独立した学習者がデータをプライベートに処理する分散機械学習アプローチである。
現在普及しているデータ分割技術について検討し、その主な欠点を可視化する。
エントロピーと対称性を利用して「最も困難」かつ制御可能なデータ分布を構築する手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T18:39:08Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Efficient Ring-topology Decentralized Federated Learning with Deep
Generative Models for Industrial Artificial Intelligent [13.982904025739606]
深層生成モデル(dgms)のためのリングトポジ型分散連体学習方式を提案する。
我々のRDFLスキームは通信効率を向上し、目標IIoTタスクにおけるDGMを向上するための訓練性能を維持する。
さらに、通信効率とFLセキュリティをさらに向上するため、IPFS(InterPlanetary File System)を導入している。
論文 参考訳(メタデータ) (2021-04-15T08:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。