論文の概要: Active Membership Inference Attack under Local Differential Privacy in
Federated Learning
- arxiv url: http://arxiv.org/abs/2302.12685v1
- Date: Fri, 24 Feb 2023 15:21:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 13:21:29.242440
- Title: Active Membership Inference Attack under Local Differential Privacy in
Federated Learning
- Title(参考訳): フェデレーション学習におけるローカルディファレンシャルプライバシー下でのアクティブメンバーシップ推論攻撃
- Authors: Truc Nguyen, Phung Lai, Khang Tran, NhatHai Phan, My T. Thai
- Abstract要約: フェデレートラーニング(FL)は元々、データプライバシ保護を備えたクライアント間での協調学習のフレームワークとして見なされていた。
本稿では,FLにおける不適切なサーバによって実行される新たなアクティブメンバシップ推論(AMI)攻撃を提案する。
- 参考スコア(独自算出の注目度): 18.017082794703555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) was originally regarded as a framework for
collaborative learning among clients with data privacy protection through a
coordinating server. In this paper, we propose a new active membership
inference (AMI) attack carried out by a dishonest server in FL. In AMI attacks,
the server crafts and embeds malicious parameters into global models to
effectively infer whether a target data sample is included in a client's
private training data or not. By exploiting the correlation among data features
through a non-linear decision boundary, AMI attacks with a certified guarantee
of success can achieve severely high success rates under rigorous local
differential privacy (LDP) protection; thereby exposing clients' training data
to significant privacy risk. Theoretical and experimental results on several
benchmark datasets show that adding sufficient privacy-preserving noise to
prevent our attack would significantly damage FL's model utility.
- Abstract(参考訳): フェデレーション学習(fl)はもともと、コーディネートサーバを介してデータプライバシ保護を備えたクライアント間の協調学習のフレームワークとして考えられていた。
本稿では,flにおける不正サーバによる新たなアクティブメンバシップ推論(ami)攻撃を提案する。
AMI攻撃では、サーバが悪意のあるパラメータをグローバルモデルに組み込んで、ターゲットデータサンプルがクライアントのプライベートトレーニングデータに含まれるかどうかを効果的に推測する。
非線形決定境界を通じてデータ特徴間の相関を利用して、AMI攻撃は、厳密な局所的差分プライバシー(LDP)保護の下で極めて高い成功率を達成することができるため、クライアントのトレーニングデータを重大なプライバシーリスクに晒すことができる。
いくつかのベンチマークデータセットの理論的および実験的結果は、攻撃を防ぐために十分なプライバシ保護ノイズを加えると、FLのモデルの有用性を著しく損なうことを示している。
関連論文リスト
- Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Membership Information Leakage in Federated Contrastive Learning [7.822625013699216]
Federated Contrastive Learning (FCL) は、分散化されたラベルなしデータから学ぶための急成長するアプローチである。
FCLは、メンバーシップ情報漏洩など、その分散特性から生じるプライバシーリスクに影響を受けやすい。
本研究は、FCLに対するメンバシップ推論攻撃の実行可能性について検討し、ロバスト攻撃手法を提案する。
論文 参考訳(メタデータ) (2024-03-06T19:53:25Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Byzantine-Robust Federated Learning with Variance Reduction and
Differential Privacy [6.343100139647636]
フェデレートラーニング(FL)は、モデルトレーニング中にデータのプライバシを保存するように設計されている。
FLはプライバシー攻撃やビザンツ攻撃に弱い。
本稿では,厳格なプライバシを保証するとともに,ビザンチン攻撃に対するシステムの堅牢性を同時に向上する新しいFLスキームを提案する。
論文 参考訳(メタデータ) (2023-09-07T01:39:02Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - A New Implementation of Federated Learning for Privacy and Security
Enhancement [27.612480082254486]
フェデレーテッド・ラーニング(FL)は、新しい機械学習・セッティングとして登場した。
ローカルデータを共有する必要はなく、プライバシを十分に保護することができる。
本稿では,ビザンチン攻撃に対するモデル更新に基づくフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-03T03:13:19Z) - A Framework for Evaluating Gradient Leakage Attacks in Federated
Learning [14.134217287912008]
Federated Learning(FL)は、クライアントのネットワークと協調的なモデルトレーニングのための、新興の分散機械学習フレームワークである。
最近の研究では、クライアントからフェデレーションサーバにローカルパラメータの更新を共有しても、グラデーションリーク攻撃の影響を受けやすいことが示されている。
本稿では,クライアントプライバシ漏洩攻撃のさまざまな形態の評価と比較を行うための原則的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-22T05:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。