論文の概要: Hybrid Differentially Private Federated Learning on Vertically
Partitioned Data
- arxiv url: http://arxiv.org/abs/2009.02763v1
- Date: Sun, 6 Sep 2020 16:06:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 07:56:07.608413
- Title: Hybrid Differentially Private Federated Learning on Vertically
Partitioned Data
- Title(参考訳): 垂直分割データに基づくハイブリッド型微分プライベートフェデレーション学習
- Authors: Chang Wang, Jian Liang, Mingkai Huang, Bing Bai, Kun Bai, Hao Li
- Abstract要約: 垂直統合学習(VFL)のためのDPフレームワークであるHDP-VFLについて述べる。
我々は、VFLの中間結果(IR)が、コミュニケーション中にトレーニングデータのプライベート情報を漏洩させる方法について分析する。
数学的には、我々のアルゴリズムはVFLのユーティリティ保証を提供するだけでなく、マルチレベルプライバシも提供することを証明している。
- 参考スコア(独自算出の注目度): 41.7896466307821
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present HDP-VFL, the first hybrid differentially private (DP) framework
for vertical federated learning (VFL) to demonstrate that it is possible to
jointly learn a generalized linear model (GLM) from vertically partitioned data
with only a negligible cost, w.r.t. training time, accuracy, etc., comparing to
idealized non-private VFL. Our work builds on the recent advances in VFL-based
collaborative training among different organizations which rely on protocols
like Homomorphic Encryption (HE) and Secure Multi-Party Computation (MPC) to
secure computation and training. In particular, we analyze how VFL's
intermediate result (IR) can leak private information of the training data
during communication and design a DP-based privacy-preserving algorithm to
ensure the data confidentiality of VFL participants. We mathematically prove
that our algorithm not only provides utility guarantees for VFL, but also
offers multi-level privacy, i.e. DP w.r.t. IR and joint differential privacy
(JDP) w.r.t. model weights. Experimental results demonstrate that our work,
under adequate privacy budgets, is quantitatively and qualitatively similar to
GLMs, learned in idealized non-private VFL setting, rather than the increased
cost in memory and processing time in most prior works based on HE or MPC. Our
codes will be released if this paper is accepted.
- Abstract(参考訳): 本稿では,垂直分割データから一般化線形モデル(glm)を協調的に学習できることを,理想化された非プライベートなvflと比較した最初のハイブリッド・ディファレンシャル・プライベート(dp)フレームワークであるhdp-vflを提案する。
本研究は,準同型暗号 (he) やセキュアマルチパーティ計算 (mpc) といったプロトコルに依存する異なる組織間の,vflに基づくコラボレーショントレーニングの最近の進歩に基づいている。
特に、vflの中間結果(ir)が通信中にトレーニングデータの個人情報を漏洩させる可能性を分析し、vfl参加者のデータ機密性を確保するためにdpベースのプライバシー保護アルゴリズムを設計する。
数学的には、我々のアルゴリズムはVFLの実用性を保証するだけでなく、DP w.r.t.IRやJDP w.r.t.モデルウェイトといったマルチレベルプライバシも提供する。
実験の結果, 適切なプライバシ予算下での作業は, HEやMPCに基づくほとんどの先行作業において, メモリと処理時間の増大よりも, 理想化された非プライベートなVFL設定で学習したGLMと定量的に類似していることが判明した。
この論文が受け入れられれば、私たちのコードは公開されます。
関連論文リスト
- ALI-DPFL: Differentially Private Federated Learning with Adaptive Local Iterations [26.310416723272184]
Federated Learning(FL)は、データではなくトレーニングパラメータを共有することで、複数のデバイスや組織間のモデルトレーニングを可能にする分散機械学習技術である。
敵は、これらのトレーニングパラメータに対する推論攻撃を通じて、個人情報を推論することができる。このような攻撃を防ぐため、FLでは、差分プライバシー(DP)が広く使われている。
我々は、プライバシ予算とコミュニケーションラウンドの両方に制約があるリソース制約のあるシナリオにおいて、差分プライベートなフェデレーション学習を考察する。
論文 参考訳(メタデータ) (2023-08-21T04:09:59Z) - Can Public Large Language Models Help Private Cross-device Federated Learning? [58.05449579773249]
言語モデルのプライベート・フェデレーション・ラーニング(FL)について検討する。
公開データは、大小両方の言語モデルのプライバシーとユーティリティのトレードオフを改善するために使われてきた。
提案手法は,プライベートなデータ分布に近い公開データをサンプリングするための理論的基盤を持つ新しい分布マッチングアルゴリズムである。
論文 参考訳(メタデータ) (2023-05-20T07:55:58Z) - Quadratic Functional Encryption for Secure Training in Vertical
Federated Learning [26.188083606166806]
Vertical Federated Learning(VFL)は、複数のパーティに分散した設定において、機械学習(ML)モデルの協調トレーニングを可能にする。
VFLでは、ラベルは単一のパーティで利用可能であり、すべてのパーティのデータが結合された場合にのみ、完全なフィーチャーセットが形成される。
近年、Xuらはマルチインプット関数暗号を用いたVFLのためのセキュア勾配計算のためのFedVと呼ばれる新しいフレームワークを提案した。
論文 参考訳(メタデータ) (2023-05-15T05:31:35Z) - BlindFL: Vertical Federated Machine Learning without Peeking into Your
Data [20.048695060411774]
垂直連合学習(VFL)は、さまざまな参加者のプライベートデータに基づいてMLモデルを構築する場合を記述している。
本稿では,VFLトレーニングと推論のための新しいフレームワークであるBlindFLを紹介する。
BlindFLは、堅牢なプライバシー保証を達成しつつ、多様なデータセットやモデルを効率的にサポートする。
論文 参考訳(メタデータ) (2022-06-16T07:26:50Z) - Differentially Private AUC Computation in Vertical Federated Learning [21.692648490368327]
ラベルDPをvFLで使用する場合,広く使用されているAUC(Area under curve)メトリックをより正確に計算できる2つの評価アルゴリズムを提案する。
大規模な実験により,我々のアルゴリズムはベースラインよりも精度の高いAUCを実現できることを示す。
論文 参考訳(メタデータ) (2022-05-24T23:46:21Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Voting-based Approaches For Differentially Private Federated Learning [87.2255217230752]
この研究はPapernotらによる非フェデレーションプライバシ学習の知識伝達にインスパイアされている。
我々は,各局所モデルから返されるデータラベル間で投票を行うことで,勾配を平均化する代わりに2つの新しいDPFLスキームを設計する。
我々のアプローチはDPFLの最先端技術に対するプライバシーとユーティリティのトレードオフを大幅に改善します。
論文 参考訳(メタデータ) (2020-10-09T23:55:19Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。