論文の概要: PIVODL: Privacy-preserving vertical federated learning over distributed
labels
- arxiv url: http://arxiv.org/abs/2108.11444v1
- Date: Wed, 25 Aug 2021 19:25:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-27 13:52:25.286794
- Title: PIVODL: Privacy-preserving vertical federated learning over distributed
labels
- Title(参考訳): PIVODL: 分散ラベルを用いたプライバシー保護型縦型学習
- Authors: Hangyu Zhu, Rui Wang, Yaochu Jin, Kaitai Liang
- Abstract要約: フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のための機械学習プロトコルである。
本研究では,複数のデバイスに分散したデータラベルでGBDTをトレーニングするためのセキュアな垂直FLフレームワークPIVODLを提案する。
- 参考スコア(独自算出の注目度): 17.769695825065416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is an emerging privacy preserving machine learning
protocol that allows multiple devices to collaboratively train a shared global
model without revealing their private local data. Non-parametric models like
gradient boosting decision trees (GBDT) have been commonly used in FL for
vertically partitioned data. However, all these studies assume that all the
data labels are stored on only one client, which may be unrealistic for
real-world applications. Therefore, in this work, we propose a secure vertical
FL framework, named PIVODL, to train GBDT with data labels distributed on
multiple devices. Both homomorphic encryption and differential privacy are
adopted to prevent label information from being leaked through transmitted
gradients and leaf values. Our experimental results show that both information
leakage and model performance degradation of the proposed PIVODL are
negligible.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、複数のデバイスがプライベートなローカルデータを公開せずに、共同で共有グローバルモデルをトレーニングできる、新たなプライバシ保護機械学習プロトコルである。
グラデーションブースティング決定木(gbdt)のような非パラメトリックモデルは、flで垂直分割データのために一般的に用いられてきた。
しかしながら、これらの研究はすべて、すべてのデータラベルが1つのクライアントにのみ格納されていると仮定している。
そこで本研究では,複数のデバイスに分散したデータラベルでGBDTをトレーニングするための,PIVODLと呼ばれるセキュアな垂直FLフレームワークを提案する。
同型暗号化と差分プライバシーの両方が採用され、送信された勾配と葉の値によってラベル情報が漏洩することを防ぐ。
実験の結果,提案したPIVODLは情報漏洩もモデル性能劣化も無視できることがわかった。
関連論文リスト
- LabObf: A Label Protection Scheme for Vertical Federated Learning Through Label Obfuscation [10.224977496821154]
Split Neural Networkは、プライバシー保護の特性から業界で人気がある。
悪意のある参加者は、アップロードされた埋め込みからラベル情報を推測するかもしれない。
本稿では,各整数値ラベルを複数の実数値ソフトラベルにランダムにマッピングする,LabObf'と呼ばれる新しいラベル難読化防衛戦略を提案する。
論文 参考訳(メタデータ) (2024-05-27T10:54:42Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Label Inference Attack against Split Learning under Regression Setting [24.287752556622312]
回帰モデルのシナリオにおいて,プライベートラベルが連続数である場合の漏洩について検討する。
グラデーション情報と追加学習正規化目標を統合した,新たな学習ベースアタックを提案する。
論文 参考訳(メタデータ) (2023-01-18T03:17:24Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - DReS-FL: Dropout-Resilient Secure Federated Learning for Non-IID Clients
via Secret Data Sharing [7.573516684862637]
フェデレートラーニング(FL)は、クライアントのプライベートデータを集中的に収集することなく、機械学習モデルの協調トレーニングを可能にする。
本稿では,ラグランジュコンピューティングに基づくDropout-Resilient Secure Federated Learningフレームワークを提案する。
DReS-FLはクライアントのドロップアウトに対して耐性があり、ローカルデータセットのプライバシ保護を提供する。
論文 参考訳(メタデータ) (2022-10-06T05:04:38Z) - Federated Learning from Only Unlabeled Data with
Class-Conditional-Sharing Clients [98.22390453672499]
Supervised Federated Learning (FL)は、複数のクライアントがラベル付きデータを共有せずにトレーニングされたモデルを共有することを可能にする。
本研究では,教師なし学習(FedUL)のフェデレーションを提案し,各クライアントのラベル付きデータにラベル付きデータを変換する。
論文 参考訳(メタデータ) (2022-04-07T09:12:00Z) - BEAS: Blockchain Enabled Asynchronous & Secure Federated Machine
Learning [0.0]
我々は、N-party Federated Learningのための最初のブロックチェーンベースのフレームワークBEASを紹介する。
グラデーションプルーニングを使用したトレーニングデータの厳格なプライバシー保証を提供する。
異常検出プロトコルは、データ汚染攻撃のリスクを最小限に抑えるために使用される。
また、異種学習環境における早期収束を防止するための新しいプロトコルも定義する。
論文 参考訳(メタデータ) (2022-02-06T17:11:14Z) - Robust Semi-supervised Federated Learning for Images Automatic
Recognition in Internet of Drones [57.468730437381076]
プライバシー保護型UAV画像認識のための半教師付きフェデレートラーニング(SSFL)フレームワークを提案する。
異なるカメラモジュールを使用したUAVによって収集されたローカルデータの数、特徴、分布には大きな違いがある。
本稿では,クライアントがトレーニングに参加する頻度,すなわちFedFreqアグリゲーションルールに基づくアグリゲーションルールを提案する。
論文 参考訳(メタデータ) (2022-01-03T16:49:33Z) - Gradient Inversion with Generative Image Prior [37.03737843861339]
Federated Learning(FL)は、ローカルデータがクライアントデバイスから離れてプライバシを保存する、分散学習フレームワークである。
データ配信で事前訓練された生成モデルを利用することで、データのプライバシが容易に破られることを示す。
本研究では,FLにおける反復的相互作用から,前者の生成モデルが学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-28T09:04:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。