論文の概要: Whispers of Data: Unveiling Label Distributions in Federated Learning Through Virtual Client Simulation
- arxiv url: http://arxiv.org/abs/2504.21436v1
- Date: Wed, 30 Apr 2025 08:51:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 19:40:36.957216
- Title: Whispers of Data: Unveiling Label Distributions in Federated Learning Through Virtual Client Simulation
- Title(参考訳): データのウィスパー:仮想クライアントシミュレーションによるフェデレーション学習におけるラベル分布の展開
- Authors: Zhixuan Ma, Haichang Gao, Junxiang Huang, Ping Wang,
- Abstract要約: Federated Learningは、データ共有を必要とせずに、地理的に分散した複数のクライアントにわたるグローバルモデルの協調トレーニングを可能にする。
推論攻撃、特にラベル推論攻撃の影響を受けやすい。
本稿では,様々なシナリオに対して安定かつ適応可能な新しいラベル分布推定攻撃を提案する。
- 参考スコア(独自算出の注目度): 4.81392127803963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning enables collaborative training of a global model across multiple geographically dispersed clients without the need for data sharing. However, it is susceptible to inference attacks, particularly label inference attacks. Existing studies on label distribution inference exhibits sensitive to the specific settings of the victim client and typically underperforms under defensive strategies. In this study, we propose a novel label distribution inference attack that is stable and adaptable to various scenarios. Specifically, we estimate the size of the victim client's dataset and construct several virtual clients tailored to the victim client. We then quantify the temporal generalization of each class label for the virtual clients and utilize the variation in temporal generalization to train an inference model that predicts the label distribution proportions of the victim client. We validate our approach on multiple datasets, including MNIST, Fashion-MNIST, FER2013, and AG-News. The results demonstrate the superiority of our method compared to state-of-the-art techniques. Furthermore, our attack remains effective even under differential privacy defense mechanisms, underscoring its potential for real-world applications.
- Abstract(参考訳): Federated Learningは、データ共有を必要とせずに、地理的に分散した複数のクライアントにわたるグローバルモデルの協調トレーニングを可能にする。
しかし、推論攻撃、特にラベル推論攻撃の影響を受けやすい。
ラベル分布推定に関する既存の研究は、被害者の特定の設定に敏感であり、防御戦略の下では典型的に過小評価される。
本研究では,様々なシナリオに対して安定かつ適応可能な新しいラベル分布推定攻撃を提案する。
具体的には、被害者のクライアントのデータセットのサイズを推定し、被害者のクライアントに合わせて複数の仮想クライアントを構築します。
次に、仮想クライアントに対する各クラスラベルの時間的一般化を定量化し、時間的一般化の変動を利用して、被害者クライアントのラベル分布比を予測する推論モデルを訓練する。
我々はMNIST、Fashion-MNIST、FER2013、AG-Newsなどの複数のデータセットに対するアプローチを検証する。
その結果,最先端技術と比較して,本手法の優位性を示した。
さらに、我々の攻撃は、現実のアプリケーションに対する潜在的な可能性を裏付ける、差分プライバシー防衛メカニズムの下でも有効である。
関連論文リスト
- FedSV: Byzantine-Robust Federated Learning via Shapley Value [1.7446992240872337]
我々は、Shapley Value(SV)を用いたFederated Learning(FL)における悪意あるクライアントに対する強力な防御効果を示す。
学習段階では,対象とするクライアントが属する異なるグループに応じて,各クライアントの貢献度を推定するので,悪意のあるクライアントの識別がより堅牢になる。
論文 参考訳(メタデータ) (2025-02-24T07:51:54Z) - Overcoming label shift in targeted federated learning [8.223143536605248]
フェデレーション学習は、複数のアクターがプライベートデータを共有せずに、協力的にモデルをトレーニングすることを可能にする。
ひとつの一般的な違反はラベルシフトであり、そこでは、クライアント間で、あるいはクライアントとターゲットドメイン間で、ラベルの分布が異なる。
我々は,中心サーバにおけるターゲットラベル分布の知識を活用することで,ラベルシフトに適応する新しいモデルアグリゲーション手法であるFedPALSを提案する。
論文 参考訳(メタデータ) (2024-11-06T09:52:45Z) - Federated Learning with Only Positive Labels by Exploring Label Correlations [78.59613150221597]
フェデレートラーニングは、プライバシー上の制約の下で複数のユーザのデータを使用することで、モデルを協調的に学習することを目的としている。
本稿では,フェデレート学習環境下でのマルチラベル分類問題について検討する。
ラベル相関(FedALC)を探索してフェデレート平均化(Federated Averaging)と呼ばれる新しい,汎用的な手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:22:50Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Personalized Federated Learning via Amortized Bayesian Meta-Learning [21.126405589760367]
我々は,Amortized Bayesian Meta-Learningを通じて,パーソナライズド・フェデレーション・ラーニングの新しい視点を紹介する。
具体的には,クライアント間の階層的変動推論を用いたemphFedABMLという新しいアルゴリズムを提案する。
我々の理論解析は平均一般化誤差の上限を提供し、未知のデータに対する一般化性能を保証する。
論文 参考訳(メタデータ) (2023-07-05T11:58:58Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。