論文の概要: Recovering Labels from Local Updates in Federated Learning
- arxiv url: http://arxiv.org/abs/2405.00955v1
- Date: Thu, 2 May 2024 02:33:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-03 18:04:13.470734
- Title: Recovering Labels from Local Updates in Federated Learning
- Title(参考訳): フェデレーションラーニングにおけるローカルアップデートからラベルを復元する
- Authors: Huancheng Chen, Haris Vikalo,
- Abstract要約: グラディエント(GI)攻撃は、連邦学習(FL)におけるクライアントのプライバシーを脅かす
ローカル更新(RLU)からラベルを回収する新しいラベルリカバリ方式を提案する。
RLUは、FLシステムが複数のローカルエポックをヘテロジニアスなデータでトレーニングする現実的な実環境でも高い性能を達成する。
- 参考スコア(独自算出の注目度): 14.866327821524854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gradient inversion (GI) attacks present a threat to the privacy of clients in federated learning (FL) by aiming to enable reconstruction of the clients' data from communicated model updates. A number of such techniques attempts to accelerate data recovery by first reconstructing labels of the samples used in local training. However, existing label extraction methods make strong assumptions that typically do not hold in realistic FL settings. In this paper we present a novel label recovery scheme, Recovering Labels from Local Updates (RLU), which provides near-perfect accuracy when attacking untrained (most vulnerable) models. More significantly, RLU achieves high performance even in realistic real-world settings where the clients in an FL system run multiple local epochs, train on heterogeneous data, and deploy various optimizers to minimize different objective functions. Specifically, RLU estimates labels by solving a least-square problem that emerges from the analysis of the correlation between labels of the data points used in a training round and the resulting update of the output layer. The experimental results on several datasets, architectures, and data heterogeneity scenarios demonstrate that the proposed method consistently outperforms existing baselines, and helps improve quality of the reconstructed images in GI attacks in terms of both PSNR and LPIPS.
- Abstract(参考訳): グラディエント・インバージョン(GI)攻撃は、クライアントのデータを通信モデル更新から再構築することを目的とした、連邦学習(FL)におけるクライアントのプライバシに対する脅威となる。
ローカルトレーニングで使用するサンプルのラベルを最初に再構成することで,データ回復を加速する手法がいくつかある。
しかし,既存のラベル抽出手法は,現実的なFL設定では成立しない強い仮定を導出する。
本稿では,未学習の(最も脆弱な)モデルを攻撃した場合に,ほぼ完璧な精度でラベルを検索できる新しいラベル復元手法であるRecovering Labels from Local Updates(RLU)を提案する。
さらに、FLシステム内のクライアントが複数のローカルエポックを実行し、異種データのトレーニングを行い、異なる目的関数を最小化するために様々なオプティマイザをデプロイする現実的な現実的環境においても、RLUは高いパフォーマンスを達成する。
具体的には、RLUは、トレーニングラウンドで使用されるデータポイントのラベルと結果の出力層の更新との相関の分析から生じる最小二乗問題を解くことでラベルを推定する。
提案手法が既存のベースラインを一貫して上回り,PSNRとLPIPSの両方の観点からGI攻撃における再構成画像の品質向上に寄与することを示す。
関連論文リスト
- Federated Unlearning Model Recovery in Data with Skewed Label Distributions [10.236494861079779]
本稿では,スキューラベル分布を用いたフェデレーション・アンラーニングの回復手法を提案する。
まず、難解なクラスデータを補うために、深層学習とオーバーサンプリングを組み込んだ戦略を採用する。
そして、密度に基づく復調法を適用して、生成されたデータからノイズを除去する。
残りのすべてのクライアントは、強化されたローカルデータセットを活用し、未学習モデルのパフォーマンスを効果的に回復するための反復的なトレーニングに従事します。
論文 参考訳(メタデータ) (2024-12-18T03:25:11Z) - Attribute Inference Attacks for Federated Regression Tasks [14.152503562997662]
フェデレートラーニング(FL)は、クライアントがデータをローカライズしながら、グローバルな機械学習モデルを協調的にトレーニングすることを可能にする。
近年の研究では、FLの訓練段階が再建攻撃に弱いことが判明している。
FL環境における回帰タスクに特化したモデルベースAIAを提案する。
論文 参考訳(メタデータ) (2024-11-19T18:06:06Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Federated Learning with Anomaly Detection via Gradient and Reconstruction Analysis [2.28438857884398]
自動エンコーダ駆動のデータ再構成と勾配解析を相乗化して、前例のない精度で有毒データを検出・緩和する新しいフレームワークを提案する。
本手法は, 最小偽陽性率を維持しつつ, 異常検出精度を15%向上させる。
私たちの仕事は、分散学習のセキュリティにおける将来の進歩の道を開くものです。
論文 参考訳(メタデータ) (2024-03-15T03:54:45Z) - FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - Approximate and Weighted Data Reconstruction Attack in Federated Learning [1.802525429431034]
分散学習(FL)は、クライアントがプライベートデータを共有せずに、機械学習モデルを構築するためのコラボレーションを可能にする。
最近のデータ再構成攻撃は、攻撃者がFLで共有されたパラメータに基づいてクライアントのトレーニングデータを復元できることを実証している。
本稿では、クライアントのローカルトレーニングプロセスの中間モデル更新を生成することにより、FedAvgシナリオの攻撃を可能にする近似手法を提案する。
論文 参考訳(メタデータ) (2023-08-13T17:40:56Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - AGIC: Approximate Gradient Inversion Attack on Federated Learning [7.289310150187218]
フェデレートラーニング(Federated Learning)は、クライアントがグローバルモデルを計算するためにローカルアップデートを集約する前に、自身のデータ上でローカルモデルをトレーニングする、プライベート・バイ・デザインの分散ラーニングパラダイムである。
最近のリコンストラクション攻撃では、訓練中にクライアントが使用するプライベートデータを再構築するために、単一のミニバッチの勾配更新に勾配インバージョン最適化を適用している。
本稿では,モデル更新と勾配更新の両方から効率的に画像を再構成する新しい近似勾配反転攻撃法AGICを提案する。
論文 参考訳(メタデータ) (2022-04-28T21:15:59Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。