論文の概要: A Framework for Evaluating Privacy-Utility Trade-off in Vertical
Federated Learning
- arxiv url: http://arxiv.org/abs/2209.03885v2
- Date: Fri, 9 Sep 2022 01:14:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 10:38:25.877352
- Title: A Framework for Evaluating Privacy-Utility Trade-off in Vertical
Federated Learning
- Title(参考訳): 垂直フェデレーション学習におけるプライバシ利用トレードオフ評価の枠組み
- Authors: Yan Kang, Jiahuan Luo, Yuanqin He, Xiaojin Zhang, Lixin Fan, Qiang
Yang
- Abstract要約: フェデレートラーニング(FL)は、ユーザのプライバシを損なうことなく、データサイロ問題に取り組むための実践的なソリューションとして登場した。
その変種の一つである垂直連合学習(VFL)は、より価値ある機能を活用するという企業の要求と一致するため、最近注目を集めている。
VFLにおける現在の研究は、特定のVFLアルゴリズムの特定の保護または攻撃メカニズムの開発に集中している。
- 参考スコア(独自算出の注目度): 14.916718841834953
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) has emerged as a practical solution to tackle data
silo issues without compromising user privacy. One of its variants, vertical
federated learning (VFL), has recently gained increasing attention as the VFL
matches the enterprises' demands of leveraging more valuable features to build
better machine learning models while preserving user privacy. Current works in
VFL concentrate on developing a specific protection or attack mechanism for a
particular VFL algorithm. In this work, we propose an evaluation framework that
formulates the privacy-utility evaluation problem. We then use this framework
as a guide to comprehensively evaluate a broad range of protection mechanisms
against most of the state-of-the-art privacy attacks for three widely-deployed
VFL algorithms. These evaluations may help FL practitioners select appropriate
protection mechanisms given specific requirements. Our evaluation results
demonstrate that: the model inversion and most of the label inference attacks
can be thwarted by existing protection mechanisms; the model completion (MC)
attack is difficult to be prevented, which calls for more advanced MC-targeted
protection mechanisms. Based on our evaluation results, we offer concrete
advice on improving the privacy-preserving capability of VFL systems.
- Abstract(参考訳): フェデレーション学習(fl)は、ユーザのプライバシを損なうことなくデータサイロ問題に取り組むための実用的なソリューションとして登場した。
その変種の一つである垂直フェデレーション学習(vertical federated learning, vfl)が最近注目を集めている。vflは、ユーザのプライバシを維持しながら、より価値の高い機械学習モデルを構築するという、企業の要求に合致するものだ。
現在、vflは特定のvflアルゴリズムの特定の保護または攻撃機構の開発に集中している。
本稿では,プライバシ利用性評価問題を定式化する評価フレームワークを提案する。
次に、このフレームワークをガイドとして、3つの広くデプロイされたvflアルゴリズムの最先端プライバシ攻撃に対する幅広い保護メカニズムを包括的に評価する。
これらの評価は、特定の要求に応じて適切な保護機構を選択するのに役立つ。
モデルインバージョンとラベル推論攻撃の大部分は,既存の保護機構によって妨害される可能性がある。モデル補完攻撃(mc)は防止が困難であり,より高度なmc標的保護機構が要求される。
評価結果に基づき,vflシステムのプライバシ保護能力の向上に関する具体的なアドバイスを行う。
関連論文リスト
- UIFV: Data Reconstruction Attack in Vertical Federated Learning [5.404398887781436]
Vertical Federated Learning (VFL)は、参加者が生のプライベートデータを共有することなく、協調的な機械学習を促進する。
近年の研究では、学習プロセス中にデータ漏洩によって、敵が機密性を再構築する可能性のあるプライバシーリスクが明らかにされている。
我々の研究は、実用的なVFLアプリケーションに真の脅威をもたらす、VFLシステム内の深刻なプライバシー上の脆弱性を露呈する。
論文 参考訳(メタデータ) (2024-06-18T13:18:52Z) - Universal Adversarial Backdoor Attacks to Fool Vertical Federated
Learning in Cloud-Edge Collaboration [13.067285306737675]
本稿では,二元分類タスクの文脈における垂直連合学習(VFL)の脆弱性について検討する。
VFLの予測に悪影響を及ぼすため,UAB攻撃を導入した。
我々の手法は既存の最先端の手法を超越し、最大100%のバックドアタスク性能を実現している。
論文 参考訳(メタデータ) (2023-04-22T15:31:15Z) - Revisiting Personalized Federated Learning: Robustness Against Backdoor
Attacks [53.81129518924231]
pFLフレームワークにおけるバックドア攻撃の最初の研究を行う。
モデル共有部分を持つpFL法は,バックドア攻撃に対するロバスト性を大幅に向上させることができることを示す。
本稿では,バックドア攻撃に対する防御性能を実証的に向上する軽量防御手法Simple-Tuningを提案する。
論文 参考訳(メタデータ) (2023-02-03T11:58:14Z) - Vertical Federated Learning: Concepts, Advances and Challenges [18.38260017835129]
VFL(Vertical Federated Learning)の概念とアルゴリズムについてレビューする。
VFL設定とプライバシ保護プロトコルを網羅的に分類する。
本稿では,コミュニケーション,計算,プライバシ,有効性,公平性といった制約を考慮した統合フレームワーク VFLow を提案する。
論文 参考訳(メタデータ) (2022-11-23T10:00:06Z) - Unraveling the Connections between Privacy and Certified Robustness in
Federated Learning Against Poisoning Attacks [68.20436971825941]
フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための、効率的なパラダイムを提供する。
いくつかの研究により、FLは毒殺攻撃に弱いことが示されている。
ローカルユーザのプライバシを保護するため、FLは通常、差分プライベートな方法でトレーニングされる。
論文 参考訳(メタデータ) (2022-09-08T21:01:42Z) - Trading Off Privacy, Utility and Efficiency in Federated Learning [22.53326117450263]
プライバシリーク、ユーティリティ損失、効率低下の間のトレードオフを定式化し、定量化する。
我々は, プライバシー漏洩, ユーティリティ損失, 効率の低下など, 広く認識されている保護機構の下位領域を解析した。
論文 参考訳(メタデータ) (2022-09-01T05:20:04Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。