論文の概要: A Novel Attribute Reconstruction Attack in Federated Learning
- arxiv url: http://arxiv.org/abs/2108.06910v1
- Date: Mon, 16 Aug 2021 05:57:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 14:45:38.256015
- Title: A Novel Attribute Reconstruction Attack in Federated Learning
- Title(参考訳): 連合学習における新しい属性再構成攻撃
- Authors: Lingjuan Lyu, Chen Chen
- Abstract要約: フェデレーテッド・ラーニング(FL)は、多数の参加者がプライベートトレーニングデータを公開することなく、共同MLモデルを構築することが可能な、有望な学習パラダイムとして登場した。
既存のFL設計では、システム内外の敵がデータプライバシーを侵害するために悪用できる脆弱性が示されている。
トレーニングデータ属性を再構築するためのcos-matchingと呼ばれる,より効率的で効率的な勾配マッチング手法を開発した。
- 参考スコア(独自算出の注目度): 7.426857207652392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) emerged as a promising learning paradigm to enable a
multitude of participants to construct a joint ML model without exposing their
private training data. Existing FL designs have been shown to exhibit
vulnerabilities which can be exploited by adversaries both within and outside
of the system to compromise data privacy. However, most current works conduct
attacks by leveraging gradients on a small batch of data, which is less
practical in FL. In this work, we consider a more practical and interesting
scenario in which participants share their epoch-averaged gradients (share
gradients after at least 1 epoch of local training) rather than per-example or
small batch-averaged gradients as in previous works. We perform the first
systematic evaluation of attribute reconstruction attack (ARA) launched by the
malicious server in the FL system, and empirically demonstrate that the shared
epoch-averaged local model gradients can reveal sensitive attributes of local
training data of any victim participant. To achieve this goal, we develop a
more effective and efficient gradient matching based method called cos-matching
to reconstruct the training data attributes. We evaluate our attacks on a
variety of real-world datasets, scenarios, assumptions. Our experiments show
that our proposed method achieves better attribute attack performance than most
existing baselines.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、多数の参加者がプライベートトレーニングデータを公開することなく、共同MLモデルを構築するための、有望な学習パラダイムとして登場した。
既存のfl設計は、データプライバシを侵害するためにシステム内外の敵によって悪用される脆弱性を示すことが示されている。
しかし、現在のほとんどの研究は、FLでは実用的ではない少数のデータに対する勾配を利用して攻撃を行う。
本研究では,参加者が前回の作業のように,実例やバッチ平均勾配ではなく,エポック平均勾配(局所トレーニングの少なくとも1エポック後の勾配を共有する)を共有する,より実践的で興味深いシナリオを検討する。
FLシステムにおいて、悪意のあるサーバによって起動される属性再構成攻撃(ARA)の最初の系統的評価を行い、共有エポック平均局所モデル勾配が犠牲者の局所トレーニングデータの感度特性を明らかにすることを実証的に示す。
この目的を達成するために,cos-matchingと呼ばれるより効率的で効率的な勾配マッチング手法を開発し,トレーニングデータ属性を再構築する。
実世界のさまざまなデータセット、シナリオ、仮定に対する攻撃を評価します。
提案手法が既存のベースラインよりも優れた属性攻撃性能を実現することを示す。
関連論文リスト
- Geminio: Language-Guided Gradient Inversion Attacks in Federated Learning [18.326636715274372]
我々は、GAAを意味論的に意味のある標的攻撃に変換する最初のアプローチであるGeminioを紹介する。
Geminioは、新たなプライバシ攻撃体験を可能にする。攻撃者は自然言語で、彼らが価値とみなすデータの種類を説明することができる。
論文 参考訳(メタデータ) (2024-11-22T13:49:56Z) - Attribute Inference Attacks for Federated Regression Tasks [14.152503562997662]
フェデレートラーニング(FL)は、クライアントがデータをローカライズしながら、グローバルな機械学習モデルを協調的にトレーニングすることを可能にする。
近年の研究では、FLの訓練段階が再建攻撃に弱いことが判明している。
FL環境における回帰タスクに特化したモデルベースAIAを提案する。
論文 参考訳(メタデータ) (2024-11-19T18:06:06Z) - Federated Learning under Attack: Improving Gradient Inversion for Batch of Images [1.5749416770494706]
フェデレートラーニング(FL)は、ユーザのデータのプライバシを保存する機械学習アプローチとして登場した。
フィードバックブレンディング(DLG-FB)を用いたグラディエンスからのディープリークは、逆勾配攻撃を改善することができる。
論文 参考訳(メタデータ) (2024-09-26T12:02:36Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Approximate and Weighted Data Reconstruction Attack in Federated Learning [1.802525429431034]
分散学習(FL)は、クライアントがプライベートデータを共有せずに、機械学習モデルを構築するためのコラボレーションを可能にする。
最近のデータ再構成攻撃は、攻撃者がFLで共有されたパラメータに基づいてクライアントのトレーニングデータを復元できることを実証している。
本稿では、クライアントのローカルトレーニングプロセスの中間モデル更新を生成することにより、FedAvgシナリオの攻撃を可能にする近似手法を提案する。
論文 参考訳(メタデータ) (2023-08-13T17:40:56Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Concealing Sensitive Samples against Gradient Leakage in Federated
Learning [41.43099791763444]
Federated Learning(FL)は、クライアントが生のプライベートデータをサーバと共有する必要をなくし、ユーザのプライバシを高める分散学習パラダイムである。
近年の研究では、FLの脆弱性が逆攻撃のモデルとなり、敵は共有勾配情報に基づく盗聴によって個人データを再構築している。
我々は,機密データの勾配を隠蔽標本で曖昧にする,シンプルで効果的な防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-09-13T04:19:35Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。