論文の概要: No free lunch theorem for security and utility in federated learning
- arxiv url: http://arxiv.org/abs/2203.05816v1
- Date: Fri, 11 Mar 2022 09:48:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 13:57:31.368669
- Title: No free lunch theorem for security and utility in federated learning
- Title(参考訳): フェデレートラーニングにおける安全・有用性のための無料給食定理
- Authors: Xiaojin Zhang, Hanlin Gu, Lixin Fan, Kai Chen, Qiang Yang
- Abstract要約: 複数のパーティがそれぞれのデータからモデルを共同で学習するフェデレートされた学習シナリオでは、適切なアルゴリズムを選択するための2つの相反する目標が存在する。
本稿では、プライバシ損失とユーティリティ損失のトレードオフを統一情報理論の観点から定式化する一般的なフレームワークについて説明する。
- 参考スコア(独自算出の注目度): 20.481170500480395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a federated learning scenario where multiple parties jointly learn a model
from their respective data, there exist two conflicting goals for the choice of
appropriate algorithms. On one hand, private and sensitive training data must
be kept secure as much as possible in the presence of \textit{semi-honest}
partners, while on the other hand, a certain amount of information has to be
exchanged among different parties for the sake of learning utility. Such a
challenge calls for the privacy-preserving federated learning solution, which
maximizes the utility of the learned model and maintains a provable privacy
guarantee of participating parties' private data.
This article illustrates a general framework that a) formulates the trade-off
between privacy loss and utility loss from a unified information-theoretic
point of view, and b) delineates quantitative bounds of privacy-utility
trade-off when different protection mechanisms including Randomization,
Sparsity, and Homomorphic Encryption are used. It was shown that in general
\textit{there is no free lunch for the privacy-utility trade-off} and one has
to trade the preserving of privacy with a certain degree of degraded utility.
The quantitative analysis illustrated in this article may serve as the guidance
for the design of practical federated learning algorithms.
- Abstract(参考訳): 複数のチームが互いにデータからモデルを学習する連合学習シナリオでは、適切なアルゴリズムを選択するための2つの相反する目標が存在する。
一方,「textit{semi-honest}パートナ」の存在下では,個人的かつ機密性の高いトレーニングデータを可能な限り安全に保たなければならない一方で,学習ユーティリティのためには,特定の情報交換を行う必要がある。
このような課題は、学習モデルの実用性を最大化し、参加者のプライベートデータに対する証明可能なプライバシー保証を維持する、プライバシ保護フェデレーション学習ソリューションを求めるものである。
この記事では、一般的なフレームワークを説明します。
a) 統一情報理論の観点からのプライバシ損失とユーティリティ損失のトレードオフを定式化し、
ロ ランダム化、スパリティー及び均質暗号化を含む異なる保護機構を使用する場合のプライバシー利用トレードオフの量的境界を定めること。
一般に textit{there no free lunch for the privacy-utility trade-off} があり、プライバシーの保存をある程度の劣化したユーティリティと交換しなければならないことが示されている。
本論文で示した定量的解析は,実用的なフェデレーション学習アルゴリズムの設計のための指針となるかもしれない。
関連論文リスト
- Share Your Representation Only: Guaranteed Improvement of the
Privacy-Utility Tradeoff in Federated Learning [47.042811490685324]
この情報漏洩のリスクを減らし、最先端の差分プライベートアルゴリズムを使っても、無料ではない。
本稿では,異なるプライバシ保証を持つフェデレーションモデルにおいて,様々な当事者が協調的に洗練する表現学習の目的について考察する。
同じ小さなプライバシ予算の下で、以前の作業よりも大幅にパフォーマンスが向上するのを観察する。
論文 参考訳(メタデータ) (2023-09-11T14:46:55Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Locally Differentially Private Distributed Online Learning with
Guaranteed Optimality [12.797344798828922]
本稿では,分散オンライン学習における差分プライバシーと学習精度を両立させる手法を提案する。
私たちの知る限りでは、このアルゴリズムは厳密な局所的な差分プライバシーと学習精度の両方を確実にする最初のアルゴリズムです。
論文 参考訳(メタデータ) (2023-06-25T02:05:34Z) - Privacy-Preserving Joint Edge Association and Power Optimization for the
Internet of Vehicles via Federated Multi-Agent Reinforcement Learning [74.53077322713548]
プライバシ保護型共同エッジアソシエーションと電力配分問題について検討する。
提案されたソリューションは、最先端のソリューションよりも高いプライバシレベルを維持しながら、魅力的なトレードオフにぶつかる。
論文 参考訳(メタデータ) (2023-01-26T10:09:23Z) - Protecting Data from all Parties: Combining FHE and DP in Federated
Learning [0.09176056742068812]
トレーニングデータのプライバシに関して,拡張脅威モデルに対処するセキュアなフレームワークを提案する。
提案フレームワークは,トレーニングデータ所有者と集約サーバのすべての参加者から,トレーニングデータのプライバシを保護する。
新たな量子化演算子を用いて、同型暗号化を用いることにより、ノイズが定量化され、バウンドされる状況において、差分プライバシー保証が証明される。
論文 参考訳(メタデータ) (2022-05-09T14:33:44Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Communication-Computation Efficient Secure Aggregation for Federated
Learning [23.924656276456503]
フェデレーションラーニングは、ノードがデータを共有せずに、複数のノードに分散したデータを使用してニューラルネットワークを訓練する方法です。
セキュアアグリゲーションプリミティブに基づく最近のソリューションでは,プライバシ保護型のフェデレーション学習が可能だったが,通信/計算リソースが大幅に増加した。
通信・計算資源の量を大幅に削減する通信・計算効率のよいセキュアアグリゲーションを提案する。
論文 参考訳(メタデータ) (2020-12-10T03:17:50Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Differentially private cross-silo federated learning [16.38610531397378]
厳密なプライバシは、分散機械学習において最重要事項である。
本稿では,いわゆるクロスサイロ・フェデレーション・ラーニング・セッティングにおいて,加算準同型セキュア和プロトコルと差分プライバシーを併用する。
提案手法により,非分散設定に匹敵する予測精度が得られることを示す。
論文 参考訳(メタデータ) (2020-07-10T18:15:10Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。