論文の概要: Trading Off Privacy, Utility and Efficiency in Federated Learning
- arxiv url: http://arxiv.org/abs/2209.00230v1
- Date: Thu, 1 Sep 2022 05:20:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 14:24:01.819465
- Title: Trading Off Privacy, Utility and Efficiency in Federated Learning
- Title(参考訳): フェデレーション学習におけるプライバシ、ユーティリティ、効率の取引
- Authors: Xiaojin Zhang, Yan Kang, Kai Chen, Lixin Fan, Qiang Yang
- Abstract要約: プライバシリーク、ユーティリティ損失、効率低下の間のトレードオフを定式化し、定量化する。
我々は, プライバシー漏洩, ユーティリティ損失, 効率の低下など, 広く認識されている保護機構の下位領域を解析した。
- 参考スコア(独自算出の注目度): 22.53326117450263
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables participating parties to collaboratively
build a global model with boosted utility without disclosing private data
information. Appropriate protection mechanisms have to be adopted to fulfill
the opposing requirements in preserving \textit{privacy} and maintaining high
model \textit{utility}. In addition, it is a mandate for a federated learning
system to achieve high \textit{efficiency} in order to enable large-scale model
training and deployment. We propose a unified federated learning framework that
reconciles horizontal and vertical federated learning. Based on this framework,
we formulate and quantify the trade-offs between privacy leakage, utility loss,
and efficiency reduction, which leads us to the No-Free-Lunch (NFL) theorem for
the federated learning system. NFL indicates that it is unrealistic to expect
an FL algorithm to simultaneously provide excellent privacy, utility, and
efficiency in certain scenarios. We then analyze the lower bounds for the
privacy leakage, utility loss and efficiency reduction for several
widely-adopted protection mechanisms including \textit{Randomization},
\textit{Homomorphic Encryption}, \textit{Secret Sharing} and
\textit{Compression}. Our analysis could serve as a guide for selecting
protection parameters to meet particular requirements.
- Abstract(参考訳): フェデレートラーニング(FL)は、参加者がプライベートデータ情報を開示することなく、強化されたユーティリティでグローバルモデルを構築することを可能にする。
適切な保護機構は、 \textit{privacy} と高モデル \textit{utility} の保存において、反対の要件を満たすために採用されなければならない。
さらに、大規模モデルのトレーニングと展開を可能にするために、連合学習システムでは、高い \textit{efficiency} を達成する義務がある。
本稿では,水平および垂直の連携学習を両立する統合学習フレームワークを提案する。
この枠組みに基づいて,プライバシリーク,ユーティリティ損失,効率低下のトレードオフを定式化し,定量化することにより,フェデレート学習システムに対するNo-Free-Lunch(NFL)定理を導出する。
NFLは、FLアルゴリズムが特定のシナリオで優れたプライバシ、ユーティリティ、効率を同時に提供することを期待することは非現実的であることを示している。
次に,プライバシリークやユーティリティ損失,効率低下といった,広く採用されている保護機構である \textit{randomization}, \textit{homomorphic encryption}, \textit{secret sharing}, \textit{compression} について,その下限を分析する。
私たちの分析は、特定の要件を満たす保護パラメータを選択するためのガイドとなり得る。
関連論文リスト
- Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Vertical Semi-Federated Learning for Efficient Online Advertising [50.18284051956359]
Semi-VFL (Vertical Semi-Federated Learning) は、フェデレーションのないすべての利用可能なデータを利用するための軽量なソリューションである。
そこで本稿では,Semi-VFLの効率的な実装として,JPL(Joint privileged learning framework)を提案する。
論文 参考訳(メタデータ) (2022-09-30T17:59:27Z) - A Framework for Evaluating Privacy-Utility Trade-off in Vertical
Federated Learning [14.916718841834953]
フェデレートラーニング(FL)は、ユーザのプライバシを損なうことなく、データサイロ問題に取り組むための実践的なソリューションとして登場した。
その変種の一つである垂直連合学習(VFL)は、より価値ある機能を活用するという企業の要求と一致するため、最近注目を集めている。
VFLにおける現在の研究は、特定のVFLアルゴリズムの特定の保護または攻撃メカニズムの開発に集中している。
論文 参考訳(メタデータ) (2022-09-08T15:41:31Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - No free lunch theorem for security and utility in federated learning [20.481170500480395]
複数のパーティがそれぞれのデータからモデルを共同で学習するフェデレートされた学習シナリオでは、適切なアルゴリズムを選択するための2つの相反する目標が存在する。
本稿では、プライバシ損失とユーティリティ損失のトレードオフを統一情報理論の観点から定式化する一般的なフレームワークについて説明する。
論文 参考訳(メタデータ) (2022-03-11T09:48:29Z) - FedCG: Leverage Conditional GAN for Protecting Privacy and Maintaining
Competitive Performance in Federated Learning [7.9656550173284]
フェデレートラーニング(FL)は、クライアントがプライベートデータを共有せずに機械学習モデルを共同で構築できるようにすることによって、データのプライバシを保護することを目的としている。
最近の研究では、FLは勾配に基づくデータリカバリ攻撃に弱いことが示されている。
我々は,高レベルのプライバシ保護を実現するための新しいアンダーライン学習手法であるtextscFedCGを提案する。
論文 参考訳(メタデータ) (2021-11-16T03:20:37Z) - Secure Bilevel Asynchronous Vertical Federated Learning with Backward
Updating [159.48259714642447]
垂直拡張学習(VFL)は、多人数協調モデリングの要求とプライバシー漏洩の懸念により、注目を集めている。
我々は,vf$b2$を含む3つの新しいアルゴリズムを提案する新しいbftextlevel parallel architecture (vf$bfb2$)を提案する。
論文 参考訳(メタデータ) (2021-03-01T12:34:53Z) - Communication-Computation Efficient Secure Aggregation for Federated
Learning [23.924656276456503]
フェデレーションラーニングは、ノードがデータを共有せずに、複数のノードに分散したデータを使用してニューラルネットワークを訓練する方法です。
セキュアアグリゲーションプリミティブに基づく最近のソリューションでは,プライバシ保護型のフェデレーション学習が可能だったが,通信/計算リソースが大幅に増加した。
通信・計算資源の量を大幅に削減する通信・計算効率のよいセキュアアグリゲーションを提案する。
論文 参考訳(メタデータ) (2020-12-10T03:17:50Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z) - Large-Scale Secure XGB for Vertical Federated Learning [15.864654742542246]
本稿では,縦型学習環境下での大規模セキュアなXGBの構築を目的とする。
我々は、トレーニング中に中間情報が漏洩することを避けるために、セキュアなマルチパーティ計算技術を採用している。
セキュアな置換プロトコルを提案することで、トレーニング効率を改善し、フレームワークを大規模なデータセットにスケールすることが可能になります。
論文 参考訳(メタデータ) (2020-05-18T06:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。