論文の概要: Differentially Private AUC Computation in Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2205.12412v1
- Date: Tue, 24 May 2022 23:46:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 15:27:11.679956
- Title: Differentially Private AUC Computation in Vertical Federated Learning
- Title(参考訳): 垂直フェデレート学習における微分プライベートauc計算
- Authors: Jiankai Sun and Xin Yang and Yuanshun Yao and Junyuan Xie and Di Wu
and Chong Wang
- Abstract要約: ラベルDPをvFLで使用する場合,広く使用されているAUC(Area under curve)メトリックをより正確に計算できる2つの評価アルゴリズムを提案する。
大規模な実験により,我々のアルゴリズムはベースラインよりも精度の高いAUCを実現できることを示す。
- 参考スコア(独自算出の注目度): 21.692648490368327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning has gained great attention recently as a privacy-enhancing
tool to jointly train a machine learning model by multiple parties. As a
sub-category, vertical federated learning (vFL) focuses on the scenario where
features and labels are split into different parties. The prior work on vFL has
mostly studied how to protect label privacy during model training. However,
model evaluation in vFL might also lead to potential leakage of private label
information. One mitigation strategy is to apply label differential privacy
(DP) but it gives bad estimations of the true (non-private) metrics. In this
work, we propose two evaluation algorithms that can more accurately compute the
widely used AUC (area under curve) metric when using label DP in vFL. Through
extensive experiments, we show our algorithms can achieve more accurate AUCs
compared to the baselines.
- Abstract(参考訳): フェデレーション学習は、最近、複数のパーティが機械学習モデルを共同でトレーニングするプライバシー強化ツールとして注目されている。
サブカテゴリとして、垂直連合学習(vFL)は、機能とラベルが別々のパーティに分割されるシナリオに焦点を当てている。
vflの以前の研究は、主にモデルトレーニング中にラベルプライバシを保護する方法について研究してきた。
しかし、vFLにおけるモデル評価は、プライベートラベル情報の漏洩につながる可能性がある。
緩和戦略の一つは、ラベル微分プライバシー(dp)を適用することだが、真の(非プライベートな)メトリクスの推定は悪い。
本研究では,ラベルDPをvFLで使用する場合のAUC(Area under curve)メトリックをより正確に計算できる2つの評価アルゴリズムを提案する。
大規模な実験により,我々のアルゴリズムはベースラインよりも正確なAUCを実現できることを示す。
関連論文リスト
- Stalactite: Toolbox for Fast Prototyping of Vertical Federated Learning Systems [37.11550251825938]
本稿では,VFL(Vertical Federated Learning)システムのためのオープンソースのフレームワークであるemphStalactiteを紹介する。
VFLはデータサンプルが複数のデータ所有者にまたがる機能によって分割されるFLの一種である。
実世界のレコメンデーションデータセットでその使い方を実証する。
論文 参考訳(メタデータ) (2024-09-23T21:29:03Z) - ALI-DPFL: Differentially Private Federated Learning with Adaptive Local Iterations [26.310416723272184]
Federated Learning(FL)は、データではなくトレーニングパラメータを共有することで、複数のデバイスや組織間のモデルトレーニングを可能にする分散機械学習技術である。
敵は、これらのトレーニングパラメータに対する推論攻撃を通じて、個人情報を推論することができる。このような攻撃を防ぐため、FLでは、差分プライバシー(DP)が広く使われている。
我々は、プライバシ予算とコミュニケーションラウンドの両方に制約があるリソース制約のあるシナリオにおいて、差分プライベートなフェデレーション学習を考察する。
論文 参考訳(メタデータ) (2023-08-21T04:09:59Z) - Can Public Large Language Models Help Private Cross-device Federated Learning? [58.05449579773249]
言語モデルのプライベート・フェデレーション・ラーニング(FL)について検討する。
公開データは、大小両方の言語モデルのプライバシーとユーティリティのトレードオフを改善するために使われてきた。
提案手法は,プライベートなデータ分布に近い公開データをサンプリングするための理論的基盤を持つ新しい分布マッチングアルゴリズムである。
論文 参考訳(メタデータ) (2023-05-20T07:55:58Z) - Label Inference Attack against Split Learning under Regression Setting [24.287752556622312]
回帰モデルのシナリオにおいて,プライベートラベルが連続数である場合の漏洩について検討する。
グラデーション情報と追加学習正規化目標を統合した,新たな学習ベースアタックを提案する。
論文 参考訳(メタデータ) (2023-01-18T03:17:24Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - DPAUC: Differentially Private AUC Computation in Federated Learning [21.692648490368327]
フェデレートラーニング(FL)は、最近、複数の参加者による機械学習モデルを共同でトレーニングするプライバシー強化ツールとして注目されている。
FLのラベル差分プライバシ(DP)を用いた場合,広く使用されているAUC(曲線下領域)メトリックを正確に計算できる評価アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-25T18:29:11Z) - FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning [102.92349569788028]
本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシ保護のために,サーバ内の統一表現からプライベート情報を除去する対向学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-07T11:43:32Z) - A Coupled Design of Exploiting Record Similarity for Practical Vertical
Federated Learning [47.77625754666018]
フェデレートドラーニング(Federated Learning)は、生データを明らかにすることなく、さまざまなパーティ間で協調学習を可能にする学習パラダイムである。
垂直連合学習における既存の研究は「記録リンク」プロセスを無視している。
トレーニングプロセスに1対多のリンケージを統合する新しい複合トレーニングパラダイムであるFedSimを設計する。
論文 参考訳(メタデータ) (2021-06-11T11:09:53Z) - Voting-based Approaches For Differentially Private Federated Learning [87.2255217230752]
この研究はPapernotらによる非フェデレーションプライバシ学習の知識伝達にインスパイアされている。
我々は,各局所モデルから返されるデータラベル間で投票を行うことで,勾配を平均化する代わりに2つの新しいDPFLスキームを設計する。
我々のアプローチはDPFLの最先端技術に対するプライバシーとユーティリティのトレードオフを大幅に改善します。
論文 参考訳(メタデータ) (2020-10-09T23:55:19Z) - Hybrid Differentially Private Federated Learning on Vertically
Partitioned Data [41.7896466307821]
垂直統合学習(VFL)のためのDPフレームワークであるHDP-VFLについて述べる。
我々は、VFLの中間結果(IR)が、コミュニケーション中にトレーニングデータのプライベート情報を漏洩させる方法について分析する。
数学的には、我々のアルゴリズムはVFLのユーティリティ保証を提供するだけでなく、マルチレベルプライバシも提供することを証明している。
論文 参考訳(メタデータ) (2020-09-06T16:06:04Z) - Improving Semi-supervised Federated Learning by Reducing the Gradient
Diversity of Models [67.66144604972052]
Federated Learning(FL)は、ユーザのプライバシを維持しながらモバイルデバイスのコンピューティングパワーを使用する、有望な方法だ。
テスト精度に影響を与える重要な問題は、異なるユーザーからのモデルの勾配の多様性であることを示す。
本稿では,FedAvg平均化を代替するグループモデル平均化手法を提案する。
論文 参考訳(メタデータ) (2020-08-26T03:36:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。