論文の概要: SRATTA : Sample Re-ATTribution Attack of Secure Aggregation in Federated
Learning
- arxiv url: http://arxiv.org/abs/2306.07644v1
- Date: Tue, 13 Jun 2023 09:33:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 14:20:01.814385
- Title: SRATTA : Sample Re-ATTribution Attack of Secure Aggregation in Federated
Learning
- Title(参考訳): sratta : フェデレーション学習におけるセキュアアグリゲーションのサンプル再帰攻撃
- Authors: Tanguy Marchand, R\'egis Loeb, Ulysse Marteau-Ferey, Jean Ogier du
Terrail, Arthur Pignet
- Abstract要約: 我々は、完全に接続された第1層を持つ機械学習モデルを異なるクライアント間でトレーニングする、クロスサイロ・フェデレート・ラーニング(FL)の設定について検討する。
SRATTAは、現実的な仮定の下で、異なるクライアントからデータサンプルを復元する集約モデルに依存する攻撃である。
SRATTAは理論的に基礎があり、現実的なモデルやデータセットで実際に使用することができることを示す。
- 参考スコア(独自算出の注目度): 1.8888312436971186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a cross-silo federated learning (FL) setting where a machine
learning model with a fully connected first layer is trained between different
clients and a central server using FedAvg, and where the aggregation step can
be performed with secure aggregation (SA). We present SRATTA an attack relying
only on aggregated models which, under realistic assumptions, (i) recovers data
samples from the different clients, and (ii) groups data samples coming from
the same client together. While sample recovery has already been explored in an
FL setting, the ability to group samples per client, despite the use of SA, is
novel. This poses a significant unforeseen security threat to FL and
effectively breaks SA. We show that SRATTA is both theoretically grounded and
can be used in practice on realistic models and datasets. We also propose
counter-measures, and claim that clients should play an active role to
guarantee their privacy during training.
- Abstract(参考訳): 本稿では,完全接続された第1層を有する機械学習モデルを,fedavgを用いてクライアントと中央サーバ間でトレーニングし,セキュアアグリゲーション(sa)によりアグリゲーションステップを実行できるクロスサイロフェデレーション学習(fl)設定を検討する。
我々は,現実の仮定のもとに集約モデルのみに依存する攻撃をsrattaに提示する。
(i)異なるクライアントからデータサンプルを回収し、
(ii)同じクライアントから来るデータサンプルを一緒にグループ化する。
FL環境では既にサンプルリカバリが検討されているが,SAの使用にもかかわらず,クライアント毎のサンプルをグループ化できることは新規である。
これはFLに対する重大な予期せぬセキュリティの脅威となり、事実上SAを破る。
SRATTAは理論的に基礎があり、現実的なモデルやデータセットで実際に使用できることを示す。
また,クライアントはトレーニング中にプライバシを保証するためにアクティブな役割を果たすべきだと主張する。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - When to Trust Aggregated Gradients: Addressing Negative Client Sampling
in Federated Learning [41.51682329500003]
本稿では,各ラウンドにおける集約勾配に対するサーバ学習率を調整するための新しい学習率適応機構を提案する。
我々は、最適なサーバ学習率に肯定的な有意義で堅牢な指標を見つけるために、理論的な推論を行う。
論文 参考訳(メタデータ) (2023-01-25T03:52:45Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Secure Aggregation for Federated Learning in Flower [8.537997283673997]
フェデレートラーニング(FL)は、トレーニング計算をクライアントに委譲することで、共用予測モデルを学ぶことを可能にする。
セキュアアグリゲーション(SA)プロトコルは、サーバが個々のトレーニングされたモデルをアグリゲーションする際に検査できないことを保証するために使用される。
本稿では、Flower FLフレームワークでPythonユーザ向けのSAの実装であるSalviaを紹介する。
論文 参考訳(メタデータ) (2022-05-12T14:31:54Z) - RSCFed: Random Sampling Consensus Federated Semi-supervised Learning [40.998176838813045]
Federated semi-supervised learning (FSSL)は、完全にラベル付けされた、完全にラベル付けされていないクライアントをトレーニングしたり、部分的にラベル付けされたクライアントをトレーニングすることで、グローバルなモデルを導出することを目的としている。
我々は,完全ラベルのクライアント,完全ラベルのクライアント,あるいは部分的にラベル付けされたクライアントのモデル間の不均一な信頼性を考慮して,ランダムサンプリング統合学習(RSCFed)を提案する。
論文 参考訳(メタデータ) (2022-03-26T05:10:44Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。