論文の概要: Regulating Clients' Noise Adding in Federated Learning without
Verification
- arxiv url: http://arxiv.org/abs/2302.12735v1
- Date: Fri, 24 Feb 2023 16:44:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 13:01:29.812798
- Title: Regulating Clients' Noise Adding in Federated Learning without
Verification
- Title(参考訳): 検証不要なフェデレーション学習におけるクライアントの騒音付加制御
- Authors: Shu Hong, Lingjie Duan
- Abstract要約: 連合学習では、クライアントは生のデータではなく勾配やパラメータを明らかにすることなく、グローバルモデルを協調的にトレーニングする。
このようなプライバシー上の懸念から、クライアントはローカルアップデートに過剰に人工的なノイズを加え、グローバルモデルのトレーニングを損なう可能性がある。
本稿では,プライバシに敏感なクライアントに対して,パラメータの更新を検証せずに新たな価格設定機構を提案する。
- 参考スコア(独自算出の注目度): 24.196751469021848
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In federated learning (FL), clients cooperatively train a global model
without revealing their raw data but gradients or parameters, while the local
information can still be disclosed from local outputs transmitted to the
parameter server. With such privacy concerns, a client may overly add
artificial noise to his local updates to compromise the global model training,
and we prove the selfish noise adding leads to an infinite price of anarchy
(PoA). This paper proposes a novel pricing mechanism to regulate
privacy-sensitive clients without verifying their parameter updates, unlike
existing privacy mechanisms that assume the server's full knowledge of added
noise. Without knowing the ground truth, our mechanism reaches the social
optimum to best balance the global training error and privacy loss, according
to the difference between a client's updated parameter and all clients' average
parameter. We also improve the FL convergence bound by refining the aggregation
rule at the server to account for different clients' noise variances. Moreover,
we extend our pricing scheme to fit incomplete information of clients' privacy
sensitivities, ensuring their truthful type reporting and the system's ex-ante
budget balance. Simulations show that our pricing scheme greatly improves the
system performance especially when clients have diverse privacy sensitivities.
- Abstract(参考訳): フェデレーション学習(fl)では、クライアントは生のデータや勾配やパラメータを明かさずにグローバルモデルを協調的に訓練するが、ローカル情報はパラメータサーバに送信されたローカル出力から開示することができる。
このようなプライバシ上の懸念により、クライアントは、グローバルモデルのトレーニングを損なうために、ローカルアップデートに人工的なノイズを過度に追加する可能性がある。
本稿では,サーバが付加ノイズを十分に把握していると仮定する既存のプライバシメカニズムとは異なり,パラメータ更新を検証することなく,プライバシに敏感なクライアントを規制する新たな価格設定機構を提案する。
クライアントの更新パラメータと全クライアントの平均パラメータの差に応じて,グローバルトレーニングエラーとプライバシ損失のバランスを最善とするために,本機構は社会的に最適なものとなる。
また,サーバのアグリゲーションルールを改良し,異なるクライアントのノイズ分散を考慮したFL収束を改善する。
さらに,ユーザのプライバシ感受性に関する不完全な情報に適合するように価格体系を拡張し,真正なタイプ報告とシステム以前の予算バランスを確保する。
シミュレーションにより,クライアントが多様なプライバシ感を持つ場合,価格体系がシステム性能を大幅に向上することが示された。
関連論文リスト
- FedAR: Addressing Client Unavailability in Federated Learning with Local Update Approximation and Rectification [8.747592727421596]
フェデレートラーニング(FL)は、クライアントがサーバの調整の下で機械学習モデルを協調的にトレーニングすることを可能にする。
FedARは、すべてのクライアントをグローバルモデルアップデートに参加させて、サーバ上の高品質なグローバルモデルを達成することができます。
FedARはまた、多くのクライアントが存在し、クライアントが利用できないという印象的なパフォーマンスを描いている。
論文 参考訳(メタデータ) (2024-07-26T21:56:52Z) - Noise-Aware Algorithm for Heterogeneous Differentially Private Federated Learning [21.27813247914949]
本稿では,クライアントモデル更新における真のノイズレベルを効率的に推定するRobust-HDPを提案する。
ユーティリティと収束速度を改善し、不正なプライバシパラメータをサーバに送信する可能性のあるクライアントに対して安全である。
論文 参考訳(メタデータ) (2024-06-05T17:41:42Z) - Clients Collaborate: Flexible Differentially Private Federated Learning
with Guaranteed Improvement of Utility-Privacy Trade-off [34.2117116062642]
我々は、モデルユーティリティとユーザプライバシのトレードオフを打つために、厳格なプライバシ保証を備えた新しいフェデレーション学習フレームワーク、FedCEOを紹介します。
グローバルなセマンティック空間を円滑にすることで,フェデCEOが破壊されたセマンティック情報を効果的に回復できることを示す。
異なるプライバシ設定の下で、大幅なパフォーマンス改善と厳格なプライバシ保証を観察する。
論文 参考訳(メタデータ) (2024-02-10T17:39:34Z) - Adaptive Differential Privacy in Federated Learning: A Priority-Based
Approach [0.0]
フェデレートラーニング(FL)は、ローカルデータセットに直接アクセスせずにグローバルモデルを開発する。
DPはパラメータに一定のノイズを加えることで、プライバシーを保証するフレームワークを提供する。
本稿では,特徴量の相対的重要度に基づいて入射雑音の値を決定するFLの適応雑音付加法を提案する。
論文 参考訳(メタデータ) (2024-01-04T03:01:15Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - DYNAFED: Tackling Client Data Heterogeneity with Global Dynamics [60.60173139258481]
非イド分散データに対する局所訓練は、偏向局所最適化をもたらす。
自然な解決策は、サーバがデータ分散全体のグローバルなビューを持つように、すべてのクライアントデータをサーバに収集することです。
本稿では,データプライバシを損なうことなく,サーバ上でのグローバルな知識の収集と活用を図る。
論文 参考訳(メタデータ) (2022-11-20T06:13:06Z) - FedCorr: Multi-Stage Federated Learning for Label Noise Correction [80.9366438220228]
Federated Learning(FL)は、クライアントがグローバルモデルの共同トレーニングを可能にする、プライバシ保護の分散学習パラダイムである。
FLにおける異種ラベルノイズに対処する汎用多段階フレームワークであるtextttFedCorr$を提案する。
CIFAR-10/100でフェデレートされた合成ラベルノイズと実世界のノイズデータセットであるCloting1Mで実施された実験は、textttFedCorr$がラベルノイズに対して堅牢であることを実証した。
論文 参考訳(メタデータ) (2022-04-10T12:51:18Z) - Communication-Efficient Federated Learning with Accelerated Client Gradient [46.81082897703729]
フェデレーション学習は、クライアントデータセットの不均一な特徴のために、遅くて不安定な収束に悩まされることが多い。
本稿では,クライアント間の一貫性を改善し,サーバモデルの収束を容易にする,シンプルだが効果的なフェデレーション学習フレームワークを提案する。
我々は,アルゴリズムの理論的収束率を示し,精度と通信効率の点で顕著な性能向上を示す。
論文 参考訳(メタデータ) (2022-01-10T05:31:07Z) - Federated Noisy Client Learning [105.00756772827066]
フェデレートラーニング(FL)は、複数のローカルクライアントに依存する共有グローバルモデルを協調的に集約する。
標準FLメソッドは、集約されたモデル全体のパフォーマンスを損なううるノイズの多いクライアントの問題を無視します。
本稿では,Fed-NCL (Federated Noisy Client Learning) を提案する。
論文 参考訳(メタデータ) (2021-06-24T11:09:17Z) - Timely Communication in Federated Learning [65.1253801733098]
我々は,パラメータサーバ(PS)が,クラウドサーバにクライアントデータを集中的に格納することなく,$n$クライアントを用いてグローバルモデルを訓練するグローバルラーニングフレームワークを検討する。
提案されたスキームでは、各イテレーションでPSは$m$のクライアントを待ち、現在のモデルを送信する。
各クライアントが経験する情報の平均年齢を見つけ、与えられた$n$の年齢最適値である$m$と$k$を数値的に特徴付ける。
論文 参考訳(メタデータ) (2020-12-31T18:52:08Z) - Shuffled Model of Federated Learning: Privacy, Communication and
Accuracy Trade-offs [30.58690911428577]
通信効率とプライバシ要求を考慮した分散経験的リスク最小化(ERM)の最適化問題を考察する。
いくつかの$ell_p$空間に対するプライベート平均推定のための(最適)通信効率スキームを開発する。
完全精度通信を用いた最近の手法で開発された,同一のプライバシ,最適化性能のオペレーティングポイントを実現できることを示す。
論文 参考訳(メタデータ) (2020-08-17T09:41:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。