論文の概要: Source Inference Attacks: Beyond Membership Inference Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2310.00222v1
- Date: Sat, 30 Sep 2023 01:56:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 14:15:19.805802
- Title: Source Inference Attacks: Beyond Membership Inference Attacks in Federated Learning
- Title(参考訳): ソース推論攻撃:フェデレートラーニングにおけるメンバーシップ推論攻撃を超えて
- Authors: Hongsheng Hu, Xuyun Zhang, Zoran Salcic, Lichao Sun, Kim-Kwang Raymond Choo, Gillian Dobbie,
- Abstract要約: フェデレートラーニング(FL)は、プライバシを意識した機械学習を促進する一般的なアプローチである。
そこで本研究では,トレーニングレコードのソースクライアントを識別するために,真面目なサーバを容易にするための新たな推論攻撃を提案する。
- 参考スコア(独自算出の注目度): 41.17721074614915
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) is a popular approach to facilitate privacy-aware machine learning since it allows multiple clients to collaboratively train a global model without granting others access to their private data. It is, however, known that FL can be vulnerable to membership inference attacks (MIAs), where the training records of the global model can be distinguished from the testing records. Surprisingly, research focusing on the investigation of the source inference problem appears to be lacking. We also observe that identifying a training record's source client can result in privacy breaches extending beyond MIAs. For example, consider an FL application where multiple hospitals jointly train a COVID-19 diagnosis model, membership inference attackers can identify the medical records that have been used for training, and any additional identification of the source hospital can result the patient from the particular hospital more prone to discrimination. Seeking to contribute to the literature gap, we take the first step to investigate source privacy in FL. Specifically, we propose a new inference attack (hereafter referred to as source inference attack -- SIA), designed to facilitate an honest-but-curious server to identify the training record's source client. The proposed SIAs leverage the Bayesian theorem to allow the server to implement the attack in a non-intrusive manner without deviating from the defined FL protocol. We then evaluate SIAs in three different FL frameworks to show that in existing FL frameworks, the clients sharing gradients, model parameters, or predictions on a public dataset will leak such source information to the server. We also conduct extensive experiments on various datasets to investigate the key factors in an SIA. The experimental results validate the efficacy of the proposed SIAs.
- Abstract(参考訳): フェデレートラーニング(FL)は、プライバシを意識した機械学習を促進するための一般的なアプローチである。複数のクライアントがプライベートデータへのアクセスを許可することなく、グローバルモデルを協調的にトレーニングすることができるからだ。
しかし、グローバルモデルのトレーニング記録とテスト記録との区別が可能なMIA攻撃に対して、FLは脆弱であることが知られている。
意外なことに、ソース推論問題の調査に焦点をあてた研究は欠落しているようだ。
また、トレーニングレコードのソースクライアントを特定することで、MIAを超えたプライバシー侵害が発生することも観察した。
例えば、複数の病院が共同で新型コロナウイルスの診断モデルを訓練し、会員推論攻撃者がトレーニングに使われた医療記録を識別し、ソース病院のさらなる識別が特定の病院の患者を識別しやすくするFLアプリケーションを考える。
文献のギャップに貢献するために、FLのソースプライバシを調査する第一歩を踏み出します。
具体的には、トレーニングレコードのソースクライアントを特定するために、誠実だが正確なサーバを容易にするための新しい推論攻撃(以下、ソース推論攻撃(source inference attack -- SIA)を提案する。
提案したSIAはベイズ定理を利用して、サーバが定義されたFLプロトコルから逸脱することなく、非侵入的な方法で攻撃を実装することを可能にする。
次に、3つの異なるFLフレームワークでSIAを評価し、既存のFLフレームワークでは、クライアントが勾配、モデルパラメータ、またはパブリックデータセット上の予測を共有し、そのようなソース情報をサーバにリークすることを示す。
また, 各種データセットに対する広範囲な実験を行い, SIAの重要な要因について検討する。
実験結果は,提案したSIAの有効性を検証した。
関連論文リスト
- Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - FLTrojan: Privacy Leakage Attacks against Federated Language Models Through Selective Weight Tampering [2.2194815687410627]
悪意のあるクライアントが、サーバからの協力なしに、FL内の他のユーザのプライバシーに敏感なデータを漏洩させる方法を示す。
提案手法は, 最大71%の個人データ再構成を達成し, 会員推算率を29%向上させる。
論文 参考訳(メタデータ) (2023-10-24T19:50:01Z) - Active Membership Inference Attack under Local Differential Privacy in
Federated Learning [18.017082794703555]
フェデレートラーニング(FL)は元々、データプライバシ保護を備えたクライアント間での協調学習のフレームワークとして見なされていた。
本稿では,FLにおける不適切なサーバによって実行される新たなアクティブメンバシップ推論(AMI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-24T15:21:39Z) - Unraveling the Connections between Privacy and Certified Robustness in
Federated Learning Against Poisoning Attacks [68.20436971825941]
フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための、効率的なパラダイムを提供する。
いくつかの研究により、FLは毒殺攻撃に弱いことが示されている。
ローカルユーザのプライバシを保護するため、FLは通常、差分プライベートな方法でトレーニングされる。
論文 参考訳(メタデータ) (2022-09-08T21:01:42Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - Source Inference Attacks in Federated Learning [8.493935454144422]
フェデレートラーニング(FL)は、複数のクライアントがプライベートデータを共有せずにモデルを共同でトレーニングできる、有望なプライバシ認識パラダイムとして登場した。
我々は、トレーニングメンバーのソースを最適に推定できる、ソース推論攻撃(SIA)と呼ばれる新しい推論攻撃を提案する。
論文 参考訳(メタデータ) (2021-09-13T01:09:48Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Private Cross-Silo Federated Learning for Extracting Vaccine Adverse
Event Mentions [0.7349727826230862]
Federated Learning(FL)は、ユーザーが物理的にデータを共有せずにグローバルモデルを共同トレーニングするためのゴト分散トレーニングパラダイムです。
FLベースのトレーニングで得られたさまざまな利点の次元の包括的な実証的分析を紹介します。
ローカルDPは,グローバルモデルの予測精度を著しく損なう可能性を示し,ユーザによるフェデレーションへの参加を阻害する。
論文 参考訳(メタデータ) (2021-03-12T19:20:33Z) - A Framework for Evaluating Gradient Leakage Attacks in Federated
Learning [14.134217287912008]
Federated Learning(FL)は、クライアントのネットワークと協調的なモデルトレーニングのための、新興の分散機械学習フレームワークである。
最近の研究では、クライアントからフェデレーションサーバにローカルパラメータの更新を共有しても、グラデーションリーク攻撃の影響を受けやすいことが示されている。
本稿では,クライアントプライバシ漏洩攻撃のさまざまな形態の評価と比較を行うための原則的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-22T05:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。