論文の概要: Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond
- arxiv url: http://arxiv.org/abs/2207.09087v1
- Date: Tue, 19 Jul 2022 05:47:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 14:31:50.988290
- Title: Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond
- Title(参考訳): 垂直ロジスティック回帰プライバシー保護は?
包括的プライバシー分析とその先
- Authors: Yuzheng Hu, Tianle Cai, Jinyong Shan, Shange Tang, Chaochao Cai, Ethan
Song, Bo Li, Dawn Song
- Abstract要約: 垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
- 参考スコア(独自算出の注目度): 57.10914865054868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider vertical logistic regression (VLR) trained with mini-batch
gradient descent -- a setting which has attracted growing interest among
industries and proven to be useful in a wide range of applications including
finance and medical research. We provide a comprehensive and rigorous privacy
analysis of VLR in a class of open-source Federated Learning frameworks, where
the protocols might differ between one another, yet a procedure of obtaining
local gradients is implicitly shared. We first consider the honest-but-curious
threat model, in which the detailed implementation of protocol is neglected and
only the shared procedure is assumed, which we abstract as an oracle. We find
that even under this general setting, single-dimension feature and label can
still be recovered from the other party under suitable constraints of batch
size, thus demonstrating the potential vulnerability of all frameworks
following the same philosophy. Then we look into a popular instantiation of the
protocol based on Homomorphic Encryption (HE). We propose an active attack that
significantly weaken the constraints on batch size in the previous analysis via
generating and compressing auxiliary ciphertext. To address the privacy leakage
within the HE-based protocol, we develop a simple-yet-effective countermeasure
based on Differential Privacy (DP), and provide both utility and privacy
guarantees for the updated algorithm. Finally, we empirically verify the
effectiveness of our attack and defense on benchmark datasets. Altogether, our
findings suggest that all vertical federated learning frameworks that solely
depend on HE might contain severe privacy risks, and DP, which has already
demonstrated its power in horizontal federated learning, can also play a
crucial role in the vertical setting, especially when coupled with HE or secure
multi-party computation (MPC) techniques.
- Abstract(参考訳): 我々は,ミニバッチ勾配勾配で訓練された垂直ロジスティック回帰(VLR)について考察する。これは産業の関心が高まり,金融や医学研究など幅広い分野で有用であることが証明されている。
我々は,vlrの包括的かつ厳密なプライバシー分析をオープンソース連合学習フレームワークのクラスで提供し,プロトコルが互いに異なる可能性があるが,局所勾配を得る手順は暗黙的に共有されている。
私たちはまず、プロトコルの詳細な実装を無視し、oracleとして抽象化された共有プロシージャのみを仮定する、正直だが厳密な脅威モデルを検討します。
この一般的な設定下であっても、バッチサイズの適切な制約の下で、シングルディメンジョン機能とラベルを他方から回収することが可能であることに気付き、同じ哲学に従うすべてのフレームワークの潜在的な脆弱性が示される。
次に、同型暗号化(HE)に基づくプロトコルの一般的なインスタンス化について検討する。
本稿では,前回の解析において,補助暗号文の生成と圧縮により,バッチサイズに対する制約を著しく弱めるアクティブアタックを提案する。
HEプロトコル内のプライバシリークに対処するため,差分プライバシー(DP)に基づく簡便な対策を開発し,更新アルゴリズムの実用性とプライバシ保証を提供する。
最後に,ベンチマークデータセットに対する攻撃と防御の有効性を実証的に検証する。
以上より,すべての垂直フェデレーション学習フレームワークがプライバシーリスクを負う可能性があることを示唆する。また,水平フェデレーション学習のパワーをすでに実証しているdpは,特にheやマルチパーティ計算(mpc)技術と組み合わせる場合において,垂直的な設定において重要な役割を担っている。
関連論文リスト
- Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Privacy-Preserving Distributed Learning for Residential Short-Term Load
Forecasting [11.185176107646956]
電力システムの負荷データは、住宅ユーザの日常のルーチンを不注意に明らかにし、彼らの財産のセキュリティにリスクを及ぼす可能性がある。
我々はマルコフスイッチ方式の分散学習フレームワークを導入し、その収束は厳密な理論的解析によって実証される。
実世界の電力系統負荷データを用いたケーススタディにより,提案アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2024-02-02T16:39:08Z) - Towards Vertical Privacy-Preserving Symbolic Regression via Secure
Multiparty Computation [3.9103337761169947]
遺伝的プログラミングはシンボリック回帰の標準的な検索手法である。
プライバシー保護の研究は最近進歩し、この問題に対する解決策を提供するかもしれない。
本稿では,セキュア多人数計算と呼ばれるプライバシ保護技術を用いて,共謀回帰モデルの構築を可能にするアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-22T07:48:42Z) - Practical Privacy-Preserving Gaussian Process Regression via Secret
Sharing [23.80837224347696]
本稿では秘密共有(SS)に基づくプライバシー保護型GPR手法を提案する。
コンフュージョン補正(confusion-correction)というアイデアを通じて,新たなSSベースの指数演算を導出し,Cholesky分解に基づくSSベースの行列逆変換アルゴリズムを構築する。
実験結果から,データプライバシ保護の前提として,提案手法が妥当な精度と効率を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-06-26T08:17:51Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Learning, compression, and leakage: Minimising classification error via
meta-universal compression principles [87.054014983402]
学習シナリオのための圧縮技法の有望なグループは、正規化極大(NML)符号化である。
ここでは,教師付き分類問題に対するNMLに基づく意思決定戦略を検討し,多種多様なモデルに適用した場合にPAC学習を実現することを示す。
本手法の誤分類率は,プライバシに敏感なシナリオにおいて,データ漏洩の可能性を定量化するための指標である最大リークによって上限づけられていることを示す。
論文 参考訳(メタデータ) (2020-10-14T20:03:58Z) - FedBoosting: Federated Learning with Gradient Protected Boosting for
Text Recognition [7.988454173034258]
フェデレートラーニング(FL)フレームワークは、データの集中化やデータオーナ間の共有なしに、共有モデルを協調的に学習することを可能にする。
本稿では,非独立性および非独立性分散(Non-IID)データに基づくジョイントモデルの一般化能力について述べる。
本稿では,FLの一般化と勾配リーク問題に対処する新しいブースティングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-14T18:47:23Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。