論文の概要: Trading Off Privacy, Utility and Efficiency in Federated Learning
- arxiv url: http://arxiv.org/abs/2209.00230v1
- Date: Thu, 1 Sep 2022 05:20:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 14:24:01.819465
- Title: Trading Off Privacy, Utility and Efficiency in Federated Learning
- Title(参考訳): フェデレーション学習におけるプライバシ、ユーティリティ、効率の取引
- Authors: Xiaojin Zhang, Yan Kang, Kai Chen, Lixin Fan, Qiang Yang
- Abstract要約: プライバシリーク、ユーティリティ損失、効率低下の間のトレードオフを定式化し、定量化する。
我々は, プライバシー漏洩, ユーティリティ損失, 効率の低下など, 広く認識されている保護機構の下位領域を解析した。
- 参考スコア(独自算出の注目度): 22.53326117450263
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables participating parties to collaboratively
build a global model with boosted utility without disclosing private data
information. Appropriate protection mechanisms have to be adopted to fulfill
the opposing requirements in preserving \textit{privacy} and maintaining high
model \textit{utility}. In addition, it is a mandate for a federated learning
system to achieve high \textit{efficiency} in order to enable large-scale model
training and deployment. We propose a unified federated learning framework that
reconciles horizontal and vertical federated learning. Based on this framework,
we formulate and quantify the trade-offs between privacy leakage, utility loss,
and efficiency reduction, which leads us to the No-Free-Lunch (NFL) theorem for
the federated learning system. NFL indicates that it is unrealistic to expect
an FL algorithm to simultaneously provide excellent privacy, utility, and
efficiency in certain scenarios. We then analyze the lower bounds for the
privacy leakage, utility loss and efficiency reduction for several
widely-adopted protection mechanisms including \textit{Randomization},
\textit{Homomorphic Encryption}, \textit{Secret Sharing} and
\textit{Compression}. Our analysis could serve as a guide for selecting
protection parameters to meet particular requirements.
- Abstract(参考訳): フェデレートラーニング(FL)は、参加者がプライベートデータ情報を開示することなく、強化されたユーティリティでグローバルモデルを構築することを可能にする。
適切な保護機構は、 \textit{privacy} と高モデル \textit{utility} の保存において、反対の要件を満たすために採用されなければならない。
さらに、大規模モデルのトレーニングと展開を可能にするために、連合学習システムでは、高い \textit{efficiency} を達成する義務がある。
本稿では,水平および垂直の連携学習を両立する統合学習フレームワークを提案する。
この枠組みに基づいて,プライバシリーク,ユーティリティ損失,効率低下のトレードオフを定式化し,定量化することにより,フェデレート学習システムに対するNo-Free-Lunch(NFL)定理を導出する。
NFLは、FLアルゴリズムが特定のシナリオで優れたプライバシ、ユーティリティ、効率を同時に提供することを期待することは非現実的であることを示している。
次に,プライバシリークやユーティリティ損失,効率低下といった,広く採用されている保護機構である \textit{randomization}, \textit{homomorphic encryption}, \textit{secret sharing}, \textit{compression} について,その下限を分析する。
私たちの分析は、特定の要件を満たす保護パラメータを選択するためのガイドとなり得る。
関連論文リスト
- Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - UFed-GAN: A Secure Federated Learning Framework with Constrained
Computation and Unlabeled Data [50.13595312140533]
本稿では,UFed-GAN: Unsupervised Federated Generative Adversarial Networkを提案する。
実験により,プライバシを保ちながら,限られた計算資源とラベルなしデータに対処するUFed-GANの強い可能性を示す。
論文 参考訳(メタデータ) (2023-08-10T22:52:13Z) - Binary Federated Learning with Client-Level Differential Privacy [7.854806519515342]
フェデレートラーニング(Federated Learning、FL)は、プライバシ保護のための協調学習フレームワークである。
既存のFLシステムはトレーニングアルゴリズムとしてフェデレーション平均(FedAvg)を採用するのが一般的である。
差分プライバシーを保証する通信効率のよいFLトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-07T06:07:04Z) - A Meta-learning Framework for Tuning Parameters of Protection Mechanisms
in Trustworthy Federated Learning [27.909662318838873]
信頼できるフェデレートラーニング(TFL)は通常、プライバシを保証するために保護メカニズムを活用する。
プライバシリーク, ユーティリティ損失, 効率低下のトレードオフを最適化する保護機構を見つける問題として, TFLを定式化するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-28T15:01:18Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Towards Achieving Near-optimal Utility for Privacy-Preserving Federated
Learning via Data Generation and Parameter Distortion [19.691227962303515]
フェデレートラーニング(FL)は、参加者がプライベートデータ情報を開示することなく、強化されたユーティリティでグローバルモデルを構築することを可能にする。
テキストプライバシーの維持と高モデルテキストティタリティ維持の要件を満たすために、様々な保護メカニズムを採用する必要がある。
論文 参考訳(メタデータ) (2023-05-07T14:34:15Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - No free lunch theorem for security and utility in federated learning [20.481170500480395]
複数のパーティがそれぞれのデータからモデルを共同で学習するフェデレートされた学習シナリオでは、適切なアルゴリズムを選択するための2つの相反する目標が存在する。
本稿では、プライバシ損失とユーティリティ損失のトレードオフを統一情報理論の観点から定式化する一般的なフレームワークについて説明する。
論文 参考訳(メタデータ) (2022-03-11T09:48:29Z) - Secure Bilevel Asynchronous Vertical Federated Learning with Backward
Updating [159.48259714642447]
垂直拡張学習(VFL)は、多人数協調モデリングの要求とプライバシー漏洩の懸念により、注目を集めている。
我々は,vf$b2$を含む3つの新しいアルゴリズムを提案する新しいbftextlevel parallel architecture (vf$bfb2$)を提案する。
論文 参考訳(メタデータ) (2021-03-01T12:34:53Z) - Large-Scale Secure XGB for Vertical Federated Learning [15.864654742542246]
本稿では,縦型学習環境下での大規模セキュアなXGBの構築を目的とする。
我々は、トレーニング中に中間情報が漏洩することを避けるために、セキュアなマルチパーティ計算技術を採用している。
セキュアな置換プロトコルを提案することで、トレーニング効率を改善し、フレームワークを大規模なデータセットにスケールすることが可能になります。
論文 参考訳(メタデータ) (2020-05-18T06:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。