論文の概要: PPA: Preference Profiling Attack Against Federated Learning
- arxiv url: http://arxiv.org/abs/2202.04856v1
- Date: Thu, 10 Feb 2022 06:10:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 15:52:41.363189
- Title: PPA: Preference Profiling Attack Against Federated Learning
- Title(参考訳): ppa:連合学習に対する選好プロファイリング攻撃
- Authors: Chunyi Zhou, Yansong Gao, Anmin Fu, Kai Chen, Zhiyang Dai, Zhi Zhang,
Minhui Xue, Yuqing Zhang
- Abstract要約: フェデレーテッド・ラーニング(FL)は、ローカルデータセットを使用して、多くの分散型参加者を対象に、グローバルモデルをトレーニングする。
本研究では,PPA(Preference Profiling Attack)と呼ばれる新たなタイプのプライバシ推論攻撃を明らかにし,ローカルユーザのプライベートな嗜好を正確にプロファイルする。
その結果, PPA は MNIST と CIFAR10 に対して 90% と 98% の攻撃精度を達成できた。
- 参考スコア(独自算出の注目度): 32.36200923037208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) trains a global model across a number of
decentralized participants, each with a local dataset. Compared to traditional
centralized learning, FL does not require direct local datasets access and thus
mitigates data security and privacy concerns. However, data privacy concerns
for FL still exist due to inference attacks, including known membership
inference, property inference, and data inversion.
In this work, we reveal a new type of privacy inference attack, coined
Preference Profiling Attack (PPA), that accurately profiles private preferences
of a local user. In general, the PPA can profile top-k, especially for top-1,
preferences contingent on the local user's characteristics. Our key insight is
that the gradient variation of a local user's model has a distinguishable
sensitivity to the sample proportion of a given class, especially the
majority/minority class. By observing a user model's gradient sensitivity to a
class, the PPA can profile the sample proportion of the class in the user's
local dataset and thus the user's preference of the class is exposed. The
inherent statistical heterogeneity of FL further facilitates the PPA. We have
extensively evaluated the PPA's effectiveness using four datasets from the
image domains of MNIST, CIFAR10, Products-10K and RAF-DB. Our results show that
the PPA achieves 90% and 98% top-1 attack accuracy to the MNIST and CIFAR10,
respectively. More importantly, in the real-world commercial scenarios of
shopping (i.e., Products-10K) and the social network (i.e., RAF-DB), the PPA
gains a top-1 attack accuracy of 78% in the former case to infer the most
ordered items, and 88% in the latter case to infer a victim user's emotions.
Although existing countermeasures such as dropout and differential privacy
protection can lower the PPA's accuracy to some extent, they unavoidably incur
notable global model deterioration.
- Abstract(参考訳): フェデレーション学習(federated learning, fl)は、複数の分散参加者に対して、それぞれがローカルデータセットを持つグローバルモデルをトレーニングする。
従来の集中型学習と比較して、FLはローカルデータセットに直接アクセスする必要がなく、データセキュリティとプライバシの懸念を軽減する。
しかしながら、flのデータプライバシに関する懸念は、既知のメンバシップ推論、プロパティ推論、データインバージョンなど、推論攻撃によるものである。
本研究では,PPA(Preference Profiling Attack)と呼ばれる新たなタイプのプライバシ推論攻撃を明らかにし,ローカルユーザのプライベートな嗜好を正確にプロファイルする。
一般に、PPAは、特にトップ1の場合、ローカルユーザーの特性に即した好みをプロファイルできる。
我々の重要な洞察は、局所的なユーザのモデルの勾配変化は、与えられたクラスのサンプル比率、特に多数/マイノリティクラスに対して区別可能な感度を持つということである。
クラスに対するユーザモデルの勾配感度を観察することにより、PPAは、ユーザのローカルデータセット内のクラスのサンプル比率をプロファイリングできるため、クラスのユーザの嗜好が露呈される。
FLの固有の統計的不均一性は、さらにPPAを促進する。
MNIST, CIFAR10, Products-10K, RAF-DBの画像領域の4つのデータセットを用いて, PPAの有効性を広く評価した。
その結果, PPA は MNIST と CIFAR10 に対して 90% と 98% の攻撃精度を達成できた。
さらに重要なのは、実際のショッピング(Products-10Kなど)とソーシャルネットワーク(RAF-DBなど)の商業シナリオにおいて、PPAは、最も注文されたアイテムを推測するために前者のケースで78%、後者のケースでは88%の攻撃精度で被害者の感情を推測する。
ドロップアウトや差分プライバシー保護といった既存の対策は、PPAの精度をある程度低下させる可能性があるが、必然的に顕著なグローバルモデル劣化を引き起こす。
関連論文リスト
- Decaf: Data Distribution Decompose Attack against Federated Learning [4.3667223256713745]
FLにおけるデータ分散分解攻撃(Data Distribution Decompose Attack on FL)という,革新的なプライバシの脅威を考案しています。
Decafはひそかに運営しており、データ配信のプライバシーの侵害に関して、完全に受動的で、被害者のユーザーには検出できない。
結果から,IID,非IIDのいずれであっても,ローカルなデータ分散を正確に分解できることを示す。
論文 参考訳(メタデータ) (2024-05-24T07:56:32Z) - Federated Skewed Label Learning with Logits Fusion [23.062650578266837]
フェデレートラーニング(FL)は、ローカルデータを送信することなく、複数のクライアント間で共有モデルを協調的にトレーニングすることを目的としている。
本稿では,ロジットの校正により局所モデル間の最適化バイアスを補正するFedBalanceを提案する。
提案手法は最先端手法に比べて平均精度が13%高い。
論文 参考訳(メタデータ) (2023-11-14T14:37:33Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - FedFA: Federated Feature Augmentation [25.130087374092383]
フェデレーション学習は、複数のパーティが生データを交換することなく、ディープモデルを協調的にトレーニングすることを可能にする。
本研究の主な目的は,クライアントのサンプルの特徴変化に対処する堅牢なフェデレーション学習アルゴリズムを開発することである。
我々は,フェデレーション機能強化の観点から,フェデレーション学習に取り組むためのFedFAを提案する。
論文 参考訳(メタデータ) (2023-01-30T15:39:55Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Private Cross-Silo Federated Learning for Extracting Vaccine Adverse
Event Mentions [0.7349727826230862]
Federated Learning(FL)は、ユーザーが物理的にデータを共有せずにグローバルモデルを共同トレーニングするためのゴト分散トレーニングパラダイムです。
FLベースのトレーニングで得られたさまざまな利点の次元の包括的な実証的分析を紹介します。
ローカルDPは,グローバルモデルの予測精度を著しく損なう可能性を示し,ユーザによるフェデレーションへの参加を阻害する。
論文 参考訳(メタデータ) (2021-03-12T19:20:33Z) - Local and Central Differential Privacy for Robustness and Privacy in
Federated Learning [13.115388879531967]
フェデレートラーニング(FL)では、モデルの更新のみを交換しながらデータセットをローカルに保つことで、複数の参加者が機械学習モデルを協調的にトレーニングすることができる。
本稿では,FLにおけるプライバシーとロバスト性の両方を保護するために差分プライバシ(DP)をどの程度利用できるかについて検討する。
論文 参考訳(メタデータ) (2020-09-08T07:37:23Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。