論文の概要: DPAUC: Differentially Private AUC Computation in Federated Learning
- arxiv url: http://arxiv.org/abs/2208.12294v1
- Date: Thu, 25 Aug 2022 18:29:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-29 13:29:12.327754
- Title: DPAUC: Differentially Private AUC Computation in Federated Learning
- Title(参考訳): dpauc: フェデレーション学習における微分プライベートauc計算
- Authors: Jiankai Sun and Xin Yang and Yuanshun Yao and Junyuan Xie and Di Wu
and Chong Wang
- Abstract要約: フェデレートラーニング(FL)は、最近、複数の参加者による機械学習モデルを共同でトレーニングするプライバシー強化ツールとして注目されている。
FLのラベル差分プライバシ(DP)を用いた場合,広く使用されているAUC(曲線下領域)メトリックを正確に計算できる評価アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 21.692648490368327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has gained significant attention recently as a
privacy-enhancing tool to jointly train a machine learning model by multiple
participants. The prior work on FL has mostly studied how to protect label
privacy during model training. However, model evaluation in FL might also lead
to potential leakage of private label information. In this work, we propose an
evaluation algorithm that can accurately compute the widely used AUC (area
under the curve) metric when using the label differential privacy (DP) in FL.
Through extensive experiments, we show our algorithms can compute accurate AUCs
compared to the ground truth.
- Abstract(参考訳): フェデレートラーニング(FL)は、最近、複数の参加者による機械学習モデルを共同でトレーニングするプライバシー強化ツールとして注目されている。
flに関する以前の研究は、モデルトレーニング中にラベルプライバシを保護する方法について主に研究されてきた。
しかし、FLにおけるモデル評価は、プライベートラベル情報の漏洩につながる可能性がある。
本研究では,FL のラベル差分プライバシー (DP) を用いた場合,広く使用されている AUC (Area under the curve) メトリックを正確に計算できる評価アルゴリズムを提案する。
大規模な実験により,本アルゴリズムは基礎的真理と比較して精度の高いAUCを計算可能であることを示す。
関連論文リスト
- Privacy-Preserving Federated Learning via Dataset Distillation [9.60829979241686]
フェデレートラーニング(FL)では、生のデータの代わりに知識を共有することで、モデルのトレーニングを高精度に行うことができる。
トレーニング中、ユーザーは共有されている知識をコントロールできなくなり、データプライバシの深刻な問題を引き起こす。
FLトレーニングに最小特権(PoLP)の原則を導入することを目的としたFLiPを提案する。
論文 参考訳(メタデータ) (2024-10-25T13:20:40Z) - Can Public Large Language Models Help Private Cross-device Federated Learning? [58.05449579773249]
言語モデルのプライベート・フェデレーション・ラーニング(FL)について検討する。
公開データは、大小両方の言語モデルのプライバシーとユーティリティのトレードオフを改善するために使われてきた。
提案手法は,プライベートなデータ分布に近い公開データをサンプリングするための理論的基盤を持つ新しい分布マッチングアルゴリズムである。
論文 参考訳(メタデータ) (2023-05-20T07:55:58Z) - Differentially Private AUC Computation in Vertical Federated Learning [21.692648490368327]
ラベルDPをvFLで使用する場合,広く使用されているAUC(Area under curve)メトリックをより正確に計算できる2つの評価アルゴリズムを提案する。
大規模な実験により,我々のアルゴリズムはベースラインよりも精度の高いAUCを実現できることを示す。
論文 参考訳(メタデータ) (2022-05-24T23:46:21Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - APPFL: Open-Source Software Framework for Privacy-Preserving Federated
Learning [0.0]
フェデレートラーニング(FL)は、従来の機械学習のように、データを中央の場所に転送する代わりに、異なる場所でトレーニングモデルを実行し、トレーニングから重みを更新することを可能にする。
本稿では,Argonneのプライバシ保護フェデレート学習フレームワークであるAPPFLを紹介する。
APPFLは、実装されたプライバシ保存アルゴリズムを活用し、新しいアルゴリズムを実装し、さまざまなFLアルゴリズムをプライバシ保存技術でシミュレートし、デプロイすることを可能にする。
論文 参考訳(メタデータ) (2022-02-08T06:23:05Z) - Mobility-Aware Cluster Federated Learning in Hierarchical Wireless
Networks [81.83990083088345]
我々は,無線ネットワークにおける階層型フェデレーション学習(HFL)アルゴリズムを特徴付ける理論モデルを開発した。
分析の結果,HFLの学習性能は,ハイモービル利用者の学習能力が著しく低下していることが判明した。
これらの問題を回避するため,我々はMACFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-20T10:46:58Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - Hybrid Differentially Private Federated Learning on Vertically
Partitioned Data [41.7896466307821]
垂直統合学習(VFL)のためのDPフレームワークであるHDP-VFLについて述べる。
我々は、VFLの中間結果(IR)が、コミュニケーション中にトレーニングデータのプライベート情報を漏洩させる方法について分析する。
数学的には、我々のアルゴリズムはVFLのユーティリティ保証を提供するだけでなく、マルチレベルプライバシも提供することを証明している。
論文 参考訳(メタデータ) (2020-09-06T16:06:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。