論文の概要: Privacy-Preserving Distributed Expectation Maximization for Gaussian
Mixture Model using Subspace Perturbation
- arxiv url: http://arxiv.org/abs/2209.07833v1
- Date: Fri, 16 Sep 2022 09:58:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 13:44:15.448239
- Title: Privacy-Preserving Distributed Expectation Maximization for Gaussian
Mixture Model using Subspace Perturbation
- Title(参考訳): 部分空間摂動を用いたガウス混合モデルのプライバシー保存分散期待最大化
- Authors: Qiongxiu Li and Jaron Skovsted Gundersen and Katrine Tjell and Rafal
Wisniewski and Mads Gr{\ae}sb{\o}ll Christensen
- Abstract要約: フェデレーション学習は、プライベートデータの送信を許可せず、中間更新のみを許可するため、プライバシー上の懸念によって動機付けられている。
我々は、各ステップの更新を安全に計算できる、完全に分散化されたプライバシ保存ソリューションを提案する。
数値検証により,提案手法は,精度とプライバシの両面において,既存手法よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 4.2698418800007865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy has become a major concern in machine learning. In fact, the
federated learning is motivated by the privacy concern as it does not allow to
transmit the private data but only intermediate updates. However, federated
learning does not always guarantee privacy-preservation as the intermediate
updates may also reveal sensitive information. In this paper, we give an
explicit information-theoretical analysis of a federated expectation
maximization algorithm for Gaussian mixture model and prove that the
intermediate updates can cause severe privacy leakage. To address the privacy
issue, we propose a fully decentralized privacy-preserving solution, which is
able to securely compute the updates in each maximization step. Additionally,
we consider two different types of security attacks: the honest-but-curious and
eavesdropping adversary models. Numerical validation shows that the proposed
approach has superior performance compared to the existing approach in terms of
both the accuracy and privacy level.
- Abstract(参考訳): プライバシーは機械学習において大きな関心事になっている。
実際、連合学習は、プライベートデータを送信せず、中間更新のみを許可するため、プライバシーの懸念によって動機づけられている。
しかし、中間更新が機密情報を明らかにする可能性があるため、フェデレーション学習は必ずしもプライバシー保護を保証するわけではない。
本稿では,ガウス混合モデルに対するフェデレーション予測最大化アルゴリズムの明示的な情報理論解析を行い,中間更新が深刻なプライバシー漏洩を引き起こすことを示す。
プライバシ問題に対処するために,我々は,更新を最大化ステップごとにセキュアに計算可能な,完全分散プライバシ保存ソリューションを提案する。
さらに、我々は2つの異なるタイプのセキュリティ攻撃について検討している。
数値検証により,提案手法は,精度とプライバシの両面において,既存手法よりも優れた性能を示した。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Enhanced Privacy Bound for Shuffle Model with Personalized Privacy [32.08637708405314]
Differential Privacy(DP)は、ローカルユーザと中央データキュレーターの間の中間信頼サーバを導入する、強化されたプライバシプロトコルである。
これは、局所的にランダム化されたデータを匿名化しシャッフルすることで、中央のDP保証を著しく増幅する。
この研究は、各ユーザーごとにパーソナライズされたローカルプライバシを必要とする、より実践的な設定のために、中央のプライバシ境界を導出することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T16:11:56Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - LDP-FL: Practical Private Aggregation in Federated Learning with Local
Differential Privacy [20.95527613004989]
フェデレーション学習は、実際のデータではなく、局所的な勾配情報を収集するプライバシー保護のための一般的なアプローチである。
それまでの作業は3つの問題により現実的な解決には至らなかった。
最後に、ディープラーニングモデルにおける重みの高次元性により、プライバシー予算が爆発的に膨らみます。
論文 参考訳(メタデータ) (2020-07-31T01:08:57Z) - Differentially private cross-silo federated learning [16.38610531397378]
厳密なプライバシは、分散機械学習において最重要事項である。
本稿では,いわゆるクロスサイロ・フェデレーション・ラーニング・セッティングにおいて,加算準同型セキュア和プロトコルと差分プライバシーを併用する。
提案手法により,非分散設定に匹敵する予測精度が得られることを示す。
論文 参考訳(メタデータ) (2020-07-10T18:15:10Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。