論文の概要: Federated Learning With Individualized Privacy Through Client Sampling
- arxiv url: http://arxiv.org/abs/2501.17634v2
- Date: Thu, 06 Mar 2025 11:17:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 15:56:38.304376
- Title: Federated Learning With Individualized Privacy Through Client Sampling
- Title(参考訳): クライアントサンプリングによる個人化プライバシによるフェデレーション学習
- Authors: Lucas Lange, Ole Borchardt, Erhard Rahm,
- Abstract要約: フェデレートラーニング(FL)における個別微分プライバシー(IDP)を実現するための適応的手法を提案する。
我々は、不均一なプライバシー予算に基づいてクライアント固有のサンプリングレートを計算し、修正IDP-FedAvgアルゴリズムに統合する。
実験の結果,DPベースラインの統一化により,プライバシとユーティリティのトレードオフを低減できることがわかった。
- 参考スコア(独自算出の注目度): 2.0432201743624456
- License:
- Abstract: With growing concerns about user data collection, individualized privacy has emerged as a promising solution to balance protection and utility by accounting for diverse user privacy preferences. Instead of enforcing a uniform level of anonymization for all users, this approach allows individuals to choose privacy settings that align with their comfort levels. Building on this idea, we propose an adapted method for enabling Individualized Differential Privacy (IDP) in Federated Learning (FL) by handling clients according to their personal privacy preferences. By extending the SAMPLE algorithm from centralized settings to FL, we calculate client-specific sampling rates based on their heterogeneous privacy budgets and integrate them into a modified IDP-FedAvg algorithm. We test this method under realistic privacy distributions and multiple datasets. The experimental results demonstrate that our approach achieves clear improvements over uniform DP baselines, reducing the trade-off between privacy and utility. Compared to the alternative SCALE method in related work, which assigns differing noise scales to clients, our method performs notably better. However, challenges remain for complex tasks with non-i.i.d. data, primarily stemming from the constraints of the decentralized setting.
- Abstract(参考訳): ユーザデータの収集に関する懸念が高まる中、個人化されたプライバシは、多様なユーザのプライバシ設定を考慮し、保護とユーティリティのバランスをとるための有望なソリューションとして現れました。
すべてのユーザに対して均一な匿名化を強制するのではなく、このアプローチによって個人は、快適なレベルに合わせてプライバシ設定を選択することができる。
そこで本稿では,Federated Learning (FL)において,個人プライバシの好みに応じてクライアントを扱い,IDPの個別化を可能にする手法を提案する。
SAMPLEアルゴリズムを集中的な設定からFLに拡張することにより、不均一なプライバシ予算に基づいてクライアント固有のサンプリングレートを計算し、修正IDP-FedAvgアルゴリズムに統合する。
本手法を,現実的なプライバシー分布と複数のデータセットで検証する。
実験の結果,DPベースラインの統一化により,プライバシとユーティリティのトレードオフを低減できることがわかった。
異なるノイズスケールをクライアントに割り当てるSCALE法と比較して,本手法は顕著に性能が向上する。
しかし、非i.d.データを伴う複雑なタスクには、主に分散された設定の制約に起因する課題が残っている。
関連論文リスト
- Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - An Adaptive Differential Privacy Method Based on Federated Learning [2.86006952502785]
本稿では,フェデレート学習に基づく適応型微分プライバシー手法を提案する。
プライバシーの予算を約16%削減できるが、精度はほぼ同じだ。
論文 参考訳(メタデータ) (2024-08-13T13:08:11Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Cross-silo Federated Learning with Record-level Personalized Differential Privacy [10.921330805109845]
フェデレートラーニング(FL)は、トレーニングプロセス中にクライアントのコントリビューションを保護することによって、クライアント側データのプライバシ保護を改善するための一般的なアプローチとして登場した。
既存のソリューションは通常、すべてのレコードに対して均一なプライバシ予算を仮定し、各レコードのプライバシ要件を満たすには不十分な、ワンサイズのすべてのソリューションを提供する。
クライアントレベルの一様サンプリングと非一様レコードレベルのサンプリングを併用した2段階のハイブリッドサンプリング手法を用いて,プライバシー要件を満たす新しいフレームワークであるtextitrPDP-FL を考案した。
論文 参考訳(メタデータ) (2024-01-29T16:01:46Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Echo of Neighbors: Privacy Amplification for Personalized Private
Federated Learning with Shuffle Model [21.077469463027306]
協調トレーニングの一般的なパラダイムであるフェデレートラーニングは、プライバシ攻撃に弱い。
この作業は、シャッフルモデルのプライバシー増幅効果を活用することで、パーソナライズされたローカルプライバシの下でのモデルプライバシを強化するために構築される。
私たちの知る限りでは、シャッフルがパーソナライズされたローカルプライバシに与える影響は、初めて考慮される。
論文 参考訳(メタデータ) (2023-04-11T21:48:42Z) - On Differential Privacy for Federated Learning in Wireless Systems with
Multiple Base Stations [90.53293906751747]
複数の基地局とセル間干渉を持つ無線システムにおける連合学習モデルを考える。
本稿では,学習過程の収束挙動を,その最適性ギャップの上限を導出することによって示す。
提案するスケジューラは,ランダムなスケジューラと比較して予測平均精度を向上する。
論文 参考訳(メタデータ) (2022-08-25T03:37:11Z) - Renyi Differential Privacy of the Subsampled Shuffle Model in
Distributed Learning [7.197592390105457]
クライアントは、プライバシを必要とするサーバとのインタラクションを通じて、学習モデルを反復的に構築する分散学習フレームワークで、プライバシを研究する。
最適化とフェデレートラーニング(FL)パラダイムによって動機付けられ、各ラウンドで少数のデータサンプルがランダムにサブサンプリングされた場合に焦点を当てる。
より強力なローカルプライバシ保証を得るために,各クライアントがローカルディファレンシャル・プライベート(LDP)機構を用いて応答をランダム化するシャッフルプライバシ・モデルを用いてこれを検証した。
論文 参考訳(メタデータ) (2021-07-19T11:43:24Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Privacy Amplification via Random Check-Ins [38.72327434015975]
Differentially Private Gradient Descent (DP-SGD) は、多くのアプリケーションにおいて、機密データを学習するための基本的な構成要素となっている。
本稿では,DP-SGD のような反復的手法を,多くのデバイス(クライアント)に分散したフェデレーションラーニング(FL)の設定において実施することに焦点を当てる。
当社の主なコントリビューションは,各クライアントがローカルかつ独立に行うランダムな参加決定にのみ依存する,Emphrandom Check-in分散プロトコルです。
論文 参考訳(メタデータ) (2020-07-13T18:14:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。