論文の概要: Label Inference Attacks against Federated Unlearning
- arxiv url: http://arxiv.org/abs/2508.06789v1
- Date: Sat, 09 Aug 2025 02:38:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.550059
- Title: Label Inference Attacks against Federated Unlearning
- Title(参考訳): フェデレーション・アンラーニングに対するラベル推論攻撃
- Authors: Wei Wang, Xiangyun Tang, Yajie Wang, Yijing Lin, Tao Zhang, Meng Shen, Dusit Niyato, Liehuang Zhu,
- Abstract要約: Federated Unlearning(FU)は、クライアントを忘れる権利に対応するための有望なソリューションとして登場した。
我々は、FUに対する新たなプライバシー脅威を導入・分析し、新しいラベル推論攻撃であるULIAを提案する。
- 参考スコア(独自算出の注目度): 52.102277522089814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Unlearning (FU) has emerged as a promising solution to respond to the right to be forgotten of clients, by allowing clients to erase their data from global models without compromising model performance. Unfortunately, researchers find that the parameter variations of models induced by FU expose clients' data information, enabling attackers to infer the label of unlearning data, while label inference attacks against FU remain unexplored. In this paper, we introduce and analyze a new privacy threat against FU and propose a novel label inference attack, ULIA, which can infer unlearning data labels across three FU levels. To address the unique challenges of inferring labels via the models variations, we design a gradient-label mapping mechanism in ULIA that establishes a relationship between gradient variations and unlearning labels, enabling inferring labels on accumulated model variations. We evaluate ULIA on both IID and non-IID settings. Experimental results show that in the IID setting, ULIA achieves a 100% Attack Success Rate (ASR) under both class-level and client-level unlearning. Even when only 1% of a user's local data is forgotten, ULIA still attains an ASR ranging from 93% to 62.3%.
- Abstract(参考訳): Federated Unlearning(FU)は、クライアントがモデルのパフォーマンスを損なうことなく、グローバルモデルからデータを消去できるようにすることによって、クライアントの忘れられる権利に対応する、有望なソリューションとして登場した。
残念なことに、FUによって誘導されるモデルのパラメータのバリエーションはクライアントのデータ情報を公開し、攻撃者は未学習データのラベルを推測できる一方で、FUに対するラベル推論攻撃は未調査のままである。
本稿では,FUに対する新たなプライバシ・脅威を導入・分析し,新しいラベル推論攻撃 (ULIA) を提案する。
モデル変分によるラベルの推測の独特な課題に対処するために,勾配変動と未学習ラベルの関係を確立するための勾配ラベルマッピング機構をULIAで設計し,累積モデル変分に基づくラベルの推測を可能にする。
IIDと非IID設定の両方でULIAを評価する。
IID設定において,ULIAは,クラスレベルとクライアントレベルの両方のアンラーニングの下で,100%のアタック成功率(ASR)を達成することを示す。
ユーザのローカルデータの1%しか忘れていない場合でも、ULIAは93%から62.3%の範囲でASRを達成している。
関連論文リスト
- Whispers of Data: Unveiling Label Distributions in Federated Learning Through Virtual Client Simulation [4.81392127803963]
Federated Learningは、データ共有を必要とせずに、地理的に分散した複数のクライアントにわたるグローバルモデルの協調トレーニングを可能にする。
推論攻撃、特にラベル推論攻撃の影響を受けやすい。
本稿では,様々なシナリオに対して安定かつ適応可能な新しいラベル分布推定攻撃を提案する。
論文 参考訳(メタデータ) (2025-04-30T08:51:06Z) - Learning Unlabeled Clients Divergence for Federated Semi-Supervised Learning via Anchor Model Aggregation [10.282711631100845]
SemiAnAggはアンカーモデルを通じて未ラベルのクライアントコントリビューションを学習する。
SemiAnAggは4つの広く使用されているFedSemiベンチマークにおいて、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2024-07-14T20:50:40Z) - Navigating Data Heterogeneity in Federated Learning A Semi-Supervised
Federated Object Detection [3.7398615061365206]
フェデレートラーニング(FL)は、分散データソース間でモデルをトレーニングするための強力なフレームワークとして登場した。
特に自動運転のようなアプリケーションでは、高品質なラベルや、IID以外のクライアントデータに制限がある。
クライアントがラベル付きデータを持っている間、ラベル付きデータがサーバにのみ存在するシナリオ用に設計された、先駆的なSSFODフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-26T01:40:28Z) - Federated Semi-Supervised Learning with Annotation Heterogeneity [57.12560313403097]
Heterogenely Annotated Semi-Supervised LEarning (HASSLE) という新しいフレームワークを提案する。
ラベル付きデータとラベルなしデータで個別にトレーニングされた2つのモデルを持つデュアルモデルフレームワークである。
デュアルモデルは、異なるクライアントにわたる両方のタイプのデータから暗黙的に学習することができるが、各デュアルモデルは、単一のタイプのデータに対してのみローカルにトレーニングされる。
論文 参考訳(メタデータ) (2023-03-04T16:04:49Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z) - Federated Unsupervised Representation Learning [56.715917111878106]
フェデレート非教師表現学習(FURL)と呼ばれるフェデレーション学習における新しい問題を定式化し、教師なしの共通表現モデルを学習する。
FedCAは2つの主要なモジュールで構成されている: 辞書モジュールは、各クライアントからのサンプルの表現を集約し、表現空間の整合性のためにすべてのクライアントと共有し、アライメントモジュールは、公開データに基づいてトレーニングされたベースモデル上で各クライアントの表現を整合させる。
論文 参考訳(メタデータ) (2020-10-18T13:28:30Z) - Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning [78.88007892742438]
ラベル付きデータの位置に基づくFSSL(Federated Semi-Supervised Learning)の2つの重要なシナリオについて検討する。
フェデレートマッチング(FedMatch)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T09:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。