論文の概要: Adaptive Local Steps Federated Learning with Differential Privacy Driven
by Convergence Analysis
- arxiv url: http://arxiv.org/abs/2308.10457v1
- Date: Mon, 21 Aug 2023 04:09:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 15:10:16.628825
- Title: Adaptive Local Steps Federated Learning with Differential Privacy Driven
by Convergence Analysis
- Title(参考訳): コンバージェンス解析による差分プライバシを用いた適応型局所学習
- Authors: Xinpeng Ling, Jie Fu, Zhili Chen
- Abstract要約: Federated Learning(FL)は、複数のデバイスや組織間で、データを共有せずにモデルトレーニングを可能にする分散機械学習技術である。
FLは、生データが外部の敵に直接アクセスできないことを保証しているが、敵は相変わらず差分攻撃によってデータに関する統計情報を取得することができる。
ディファレンシャルプライバシ(DP)は、敵が送信されたパラメータから個人情報を推測しないように、モデルや勾配にノイズを加える。
適応型ローカルステップ微分プライバシーフェデレーション学習(ALS-DPFL)アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 29.768652113898113
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a distributed machine learning technique that
allows model training among multiple devices or organizations without sharing
data. However, while FL ensures that the raw data is not directly accessible to
external adversaries, adversaries can still obtain some statistical information
about the data through differential attacks. Differential Privacy (DP) has been
proposed, which adds noise to the model or gradients to prevent adversaries
from inferring private information from the transmitted parameters. We
reconsider the framework of differential privacy federated learning in
resource-constrained scenarios (privacy budget and communication resources). We
analyze the convergence of federated learning with differential privacy (DPFL)
on resource-constrained scenarios and propose an Adaptive Local Steps
Differential Privacy Federated Learning (ALS-DPFL) algorithm. We experiment our
algorithm on the FashionMNIST and Cifar-10 datasets and achieve quite good
performance relative to previous work.
- Abstract(参考訳): Federated Learning(FL)は、複数のデバイスや組織間でデータを共有せずにモデルトレーニングを可能にする分散機械学習技術である。
しかし、flは生データは外部の敵に直接アクセスできないことを保証しているが、敵は差動攻撃によってデータに関する統計情報を得ることができる。
ディファレンシャルプライバシ(dp)が提案されており、モデルや勾配にノイズを追加して、送信されたパラメータからプライベート情報を推測することを防止する。
資源制約のあるシナリオ(民間予算と通信資源)における差分プライバシーフェデレーション学習の枠組みを再考する。
本稿では,資源制約のあるシナリオにおけるフェデレーション学習と微分プライバシ(DPFL)の収束を解析し,適応的局所ステップ微分プライバシフェデレート学習(ALS-DPFL)アルゴリズムを提案する。
fashionmnist と cifar-10 のデータセットでアルゴリズムを実験し,従来よりも優れた性能を実現する。
関連論文リスト
- DP-DyLoRA: Fine-Tuning Transformer-Based Models On-Device under Differentially Private Federated Learning using Dynamic Low-Rank Adaptation [15.023077875990614]
フェデレートラーニング(FL)は、クライアントがローカルデータをサーバと共有することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
差分プライバシ(DP)は、クライアントのコントリビューションにランダム性を加えるメカニズムを備えた、正式なプライバシ保証を提供することによって、そのようなリークに対処する。
差分プライバシーと組み合わせてDP-DyLoRAと呼ぶ適応手法を提案する。
論文 参考訳(メタデータ) (2024-05-10T10:10:37Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Balancing Privacy and Performance for Private Federated Learning
Algorithms [4.681076651230371]
Federated Learning(FL)は、複数のクライアントがプライベートデータを公開せずにモデルをトレーニングする分散機械学習フレームワークである。
FLアルゴリズムは、共有前に各クライアントのモデル更新にノイズを導入する差分プライバシーメカニズムを頻繁に採用する。
ローカルステップの数と通信ラウンドの間に最適なバランスがあることを示し、プライバシー予算内での収束性能を最大化する。
論文 参考訳(メタデータ) (2023-04-11T10:42:11Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Multi-Center Federated Learning [62.32725938999433]
フェデレートラーニング(FL)は、分散ラーニングにおけるデータのプライバシを保護する。
単にデータにアクセスせずに、ユーザーからローカルな勾配を収集するだけだ。
本稿では,新しいマルチセンターアグリゲーション機構を提案する。
論文 参考訳(メタデータ) (2021-08-19T12:20:31Z) - FedBN: Federated Learning on Non-IID Features via Local Batch
Normalization [23.519212374186232]
フェデレーション学習(fl)の新たなパラダイムは、生データを集中的に集約することなく、ネットワークエッジにおける深層モデルの協調的なトレーニングを可能にすることを目指している。
モデルの平均化に先立って,局所的バッチ正規化を用いて特徴シフトを緩和する有効な手法を提案する。
FedBNと呼ばれるこの方式は、古典的なFedAvgと、非IDデータの最先端の両方を上回っている。
論文 参考訳(メタデータ) (2021-02-15T16:04:10Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。