論文の概要: DPBalance: Efficient and Fair Privacy Budget Scheduling for Federated
Learning as a Service
- arxiv url: http://arxiv.org/abs/2402.09715v1
- Date: Thu, 15 Feb 2024 05:19:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 17:06:27.786269
- Title: DPBalance: Efficient and Fair Privacy Budget Scheduling for Federated
Learning as a Service
- Title(参考訳): DPBalance:フェデレートラーニング・アズ・ア・サービスのための効率的かつ公平なプライバシ予算スケジューリング
- Authors: Yu Liu, Zibo Wang, Yifei Zhu, Chen Chen
- Abstract要約: フェデレーテッド・ラーニング(FL)は、一般的な分散機械学習スキームとして登場した。
DPBalanceは,効率性と公平性を両立させる新しいプライバシ予算スケジューリング機構である。
DPBalanceは平均効率改善が1.44倍のsim 3.49倍、平均フェアネス改善が1.37倍のsim 24.32倍であることを示す。
- 参考スコア(独自算出の注目度): 15.94482624965024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has emerged as a prevalent distributed machine
learning scheme that enables collaborative model training without aggregating
raw data. Cloud service providers further embrace Federated Learning as a
Service (FLaaS), allowing data analysts to execute their FL training pipelines
over differentially-protected data. Due to the intrinsic properties of
differential privacy, the enforced privacy level on data blocks can be viewed
as a privacy budget that requires careful scheduling to cater to diverse
training pipelines. Existing privacy budget scheduling studies prioritize
either efficiency or fairness individually. In this paper, we propose
DPBalance, a novel privacy budget scheduling mechanism that jointly optimizes
both efficiency and fairness. We first develop a comprehensive utility function
incorporating data analyst-level dominant shares and FL-specific performance
metrics. A sequential allocation mechanism is then designed using the Lagrange
multiplier method and effective greedy heuristics. We theoretically prove that
DPBalance satisfies Pareto Efficiency, Sharing Incentive, Envy-Freeness, and
Weak Strategy Proofness. We also theoretically prove the existence of a
fairness-efficiency tradeoff in privacy budgeting. Extensive experiments
demonstrate that DPBalance outperforms state-of-the-art solutions, achieving an
average efficiency improvement of $1.44\times \sim 3.49 \times$, and an average
fairness improvement of $1.37\times \sim 24.32 \times$.
- Abstract(参考訳): フェデレートラーニング(FL)は、生データを集約することなく協調的なモデルトレーニングを可能にする、一般的な分散機械学習スキームとして登場した。
クラウドサービスプロバイダはさらに、FLaaS(Federated Learning as a Service)を採用して、データアナリストが差分保護されたデータ上でFLトレーニングパイプラインを実行できるようにする。
差分プライバシの本質的な特性から、データブロックの強制されたプライバシレベルは、さまざまなトレーニングパイプラインに対応するために注意深いスケジューリングを必要とするプライバシ予算と見なすことができる。
既存のプライバシー予算スケジューリング研究は、効率性または公平性を個別に優先する。
本稿では,効率と公平性を共同で最適化する,新たなプライバシー予算スケジューリング機構dpbalanceを提案する。
まず、データアナリストレベルの支配的共有とFL固有のパフォーマンス指標を組み込んだ総合ユーティリティ機能を開発する。
次に、ラグランジュ乗算法と有効グリーディヒューリスティックスを用いて逐次割当機構を設計する。
DPBalance が Pareto efficiency, Sharing Incentive, Envy-Freeness, and Weak Strategy Proofness を満たすことを理論的に証明する。
また,プライバシ予算における公平性効率のトレードオフの存在を理論的に証明する。
DPBalanceは最先端のソリューションよりも優れており、平均効率改善は1.44\times \sim 3.49 \times$、平均フェアネス改善は1.37\times \sim 24.32 \times$である。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Cost-Sensitive Multi-Fidelity Bayesian Optimization with Transfer of Learning Curve Extrapolation [55.75188191403343]
各ユーザが事前に定義した機能であるユーティリティを導入し,BOのコストと性能のトレードオフについて述べる。
このアルゴリズムをLCデータセット上で検証した結果,従来のマルチファイルBOや転送BOベースラインよりも優れていた。
論文 参考訳(メタデータ) (2024-05-28T07:38:39Z) - FedFDP: Fairness-Aware Federated Learning with Differential Privacy [21.55903748640851]
Federated Learning(FL)は、データサイロの課題を克服するための、新しい機械学習パラダイムである。
我々はまず,FedFairと呼ばれるフェアネス対応のフェデレーション学習アルゴリズムを提案する。
次に、公正性、プライバシ保護、モデルパフォーマンスのトレードオフに対処するため、差分プライバシー保護を導入し、FedFDPアルゴリズムを形成する。
論文 参考訳(メタデータ) (2024-02-25T08:35:21Z) - A Theoretical Analysis of Efficiency Constrained Utility-Privacy
Bi-Objective Optimization in Federated Learning [23.563789510998333]
フェデレートラーニング(FL)は、複数のクライアントが、個々のデータを共有せずに、共同で共有モデルを学ぶことを可能にする。
FLでは差別化プライバシが一般的なテクニックとして登場し、ユーティリティやトレーニング効率に影響を与えながら、個々のユーザデータのプライバシを保護する。
本稿ではDPFLにおける効率制約付きユーティリティプライバシ双目的最適化問題を体系的に定式化する。
論文 参考訳(メタデータ) (2023-12-27T12:37:55Z) - BARA: Efficient Incentive Mechanism with Online Reward Budget Allocation
in Cross-Silo Federated Learning [25.596968764427043]
Federated Learning(FL)は、データプライバシを保護可能な、予測可能な分散機械学習フレームワークである。
クロスサイロFLでは、データ所有者がFLトレーニングにモデルを貢献するためのインセンティブメカニズムが不可欠である。
本稿では,BARA というベイズ最適化を用いたオンライン報酬予算配分アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-09T07:36:01Z) - VFed-SSD: Towards Practical Vertical Federated Advertising [53.08038962443853]
本稿では,2つの制限を緩和する半教師付き分割蒸留フレームワーク VFed-SSD を提案する。
具体的には,垂直分割された未ラベルデータを利用する自己教師型タスクMatchedPair Detection (MPD) を開発する。
当社のフレームワークは,デプロイコストの最小化と大幅なパフォーマンス向上を図った,リアルタイム表示広告のための効率的なフェデレーション強化ソリューションを提供する。
論文 参考訳(メタデータ) (2022-05-31T17:45:30Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z) - Faithful Edge Federated Learning: Scalability and Privacy [4.8534377897519105]
フェデレーション学習は、ローカルデータセットの交換を必要とせずに、分散型エッジデバイスのネットワーク上で機械学習アルゴリズムをトレーニングすることを可能にする。
エージェントが自発的に参加するインセンティブに、フェデレーション学習の鍵となる特徴、不均衡データおよび非i.d.データがどのように影響するかを分析する。
経済性,スケーラビリティ,プライバシを満足する2つの忠実な連合学習機構を設計する。
論文 参考訳(メタデータ) (2021-06-30T08:46:40Z) - Federated Learning with Sparsification-Amplified Privacy and Adaptive
Optimization [27.243322019117144]
フェデレートラーニング(FL)により、分散エージェントは、生データを互いに共有することなく、集中型モデルを共同で学習することができる。
スパーシフィケーションを増幅した新しいFLフレームワークを提案する。
提案手法では,ランダムなスペーシフィケーションと各エージェントの勾配摂動を統合し,プライバシー保証を増幅する。
論文 参考訳(メタデータ) (2020-08-01T20:22:57Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。