論文の概要: No free lunch theorem for security and utility in federated learning
- arxiv url: http://arxiv.org/abs/2203.05816v1
- Date: Fri, 11 Mar 2022 09:48:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 13:57:31.368669
- Title: No free lunch theorem for security and utility in federated learning
- Title(参考訳): フェデレートラーニングにおける安全・有用性のための無料給食定理
- Authors: Xiaojin Zhang, Hanlin Gu, Lixin Fan, Kai Chen, Qiang Yang
- Abstract要約: 複数のパーティがそれぞれのデータからモデルを共同で学習するフェデレートされた学習シナリオでは、適切なアルゴリズムを選択するための2つの相反する目標が存在する。
本稿では、プライバシ損失とユーティリティ損失のトレードオフを統一情報理論の観点から定式化する一般的なフレームワークについて説明する。
- 参考スコア(独自算出の注目度): 20.481170500480395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a federated learning scenario where multiple parties jointly learn a model
from their respective data, there exist two conflicting goals for the choice of
appropriate algorithms. On one hand, private and sensitive training data must
be kept secure as much as possible in the presence of \textit{semi-honest}
partners, while on the other hand, a certain amount of information has to be
exchanged among different parties for the sake of learning utility. Such a
challenge calls for the privacy-preserving federated learning solution, which
maximizes the utility of the learned model and maintains a provable privacy
guarantee of participating parties' private data.
This article illustrates a general framework that a) formulates the trade-off
between privacy loss and utility loss from a unified information-theoretic
point of view, and b) delineates quantitative bounds of privacy-utility
trade-off when different protection mechanisms including Randomization,
Sparsity, and Homomorphic Encryption are used. It was shown that in general
\textit{there is no free lunch for the privacy-utility trade-off} and one has
to trade the preserving of privacy with a certain degree of degraded utility.
The quantitative analysis illustrated in this article may serve as the guidance
for the design of practical federated learning algorithms.
- Abstract(参考訳): 複数のチームが互いにデータからモデルを学習する連合学習シナリオでは、適切なアルゴリズムを選択するための2つの相反する目標が存在する。
一方,「textit{semi-honest}パートナ」の存在下では,個人的かつ機密性の高いトレーニングデータを可能な限り安全に保たなければならない一方で,学習ユーティリティのためには,特定の情報交換を行う必要がある。
このような課題は、学習モデルの実用性を最大化し、参加者のプライベートデータに対する証明可能なプライバシー保証を維持する、プライバシ保護フェデレーション学習ソリューションを求めるものである。
この記事では、一般的なフレームワークを説明します。
a) 統一情報理論の観点からのプライバシ損失とユーティリティ損失のトレードオフを定式化し、
ロ ランダム化、スパリティー及び均質暗号化を含む異なる保護機構を使用する場合のプライバシー利用トレードオフの量的境界を定めること。
一般に textit{there no free lunch for the privacy-utility trade-off} があり、プライバシーの保存をある程度の劣化したユーティリティと交換しなければならないことが示されている。
本論文で示した定量的解析は,実用的なフェデレーション学習アルゴリズムの設計のための指針となるかもしれない。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Towards Split Learning-based Privacy-Preserving Record Linkage [49.1574468325115]
ユーザデータのプライバシが要求されるアプリケーションを容易にするために、Split Learningが導入されている。
本稿では,プライバシ保護記録マッチングのための分割学習の可能性について検討する。
論文 参考訳(メタデータ) (2024-09-02T09:17:05Z) - Federated Transfer Learning with Differential Privacy [21.50525027559563]
我々は、信頼された中央サーバを仮定することなく、各データセットに対するプライバシー保証を提供する、テキストフェデレーションによる差分プライバシーの概念を定式化する。
フェデレートされた差分プライバシは、確立されたローカルと中央の差分プライバシモデルの間の中間プライバシモデルであることを示す。
論文 参考訳(メタデータ) (2024-03-17T21:04:48Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Protecting Data from all Parties: Combining FHE and DP in Federated
Learning [0.09176056742068812]
トレーニングデータのプライバシに関して,拡張脅威モデルに対処するセキュアなフレームワークを提案する。
提案フレームワークは,トレーニングデータ所有者と集約サーバのすべての参加者から,トレーニングデータのプライバシを保護する。
新たな量子化演算子を用いて、同型暗号化を用いることにより、ノイズが定量化され、バウンドされる状況において、差分プライバシー保証が証明される。
論文 参考訳(メタデータ) (2022-05-09T14:33:44Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Communication-Computation Efficient Secure Aggregation for Federated
Learning [23.924656276456503]
フェデレーションラーニングは、ノードがデータを共有せずに、複数のノードに分散したデータを使用してニューラルネットワークを訓練する方法です。
セキュアアグリゲーションプリミティブに基づく最近のソリューションでは,プライバシ保護型のフェデレーション学習が可能だったが,通信/計算リソースが大幅に増加した。
通信・計算資源の量を大幅に削減する通信・計算効率のよいセキュアアグリゲーションを提案する。
論文 参考訳(メタデータ) (2020-12-10T03:17:50Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Differentially private cross-silo federated learning [16.38610531397378]
厳密なプライバシは、分散機械学習において最重要事項である。
本稿では,いわゆるクロスサイロ・フェデレーション・ラーニング・セッティングにおいて,加算準同型セキュア和プロトコルと差分プライバシーを併用する。
提案手法により,非分散設定に匹敵する予測精度が得られることを示す。
論文 参考訳(メタデータ) (2020-07-10T18:15:10Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。