論文の概要: Source Inference Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2109.05659v1
- Date: Mon, 13 Sep 2021 01:09:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:08:29.652790
- Title: Source Inference Attacks in Federated Learning
- Title(参考訳): フェデレーション学習におけるソース推論攻撃
- Authors: Hongsheng Hu and Zoran Salcic and Lichao Sun and Gillian Dobbie and
Xuyun Zhang
- Abstract要約: フェデレートラーニング(FL)は、複数のクライアントがプライベートデータを共有せずにモデルを共同でトレーニングできる、有望なプライバシ認識パラダイムとして登場した。
我々は、トレーニングメンバーのソースを最適に推定できる、ソース推論攻撃(SIA)と呼ばれる新しい推論攻撃を提案する。
- 参考スコア(独自算出の注目度): 8.493935454144422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has emerged as a promising privacy-aware paradigm
that allows multiple clients to jointly train a model without sharing their
private data. Recently, many studies have shown that FL is vulnerable to
membership inference attacks (MIAs) that can distinguish the training members
of the given model from the non-members. However, existing MIAs ignore the
source of a training member, i.e., the information of which client owns the
training member, while it is essential to explore source privacy in FL beyond
membership privacy of examples from all clients. The leakage of source
information can lead to severe privacy issues. For example, identification of
the hospital contributing to the training of an FL model for COVID-19 pandemic
can render the owner of a data record from this hospital more prone to
discrimination if the hospital is in a high risk region. In this paper, we
propose a new inference attack called source inference attack (SIA), which can
derive an optimal estimation of the source of a training member. Specifically,
we innovatively adopt the Bayesian perspective to demonstrate that an
honest-but-curious server can launch an SIA to steal non-trivial source
information of the training members without violating the FL protocol. The
server leverages the prediction loss of local models on the training members to
achieve the attack effectively and non-intrusively. We conduct extensive
experiments on one synthetic and five real datasets to evaluate the key factors
in an SIA, and the results show the efficacy of the proposed source inference
attack.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数のクライアントがプライベートデータを共有せずにモデルを共同でトレーニングできる、有望なプライバシ認識パラダイムとして登場した。
近年多くの研究で、FLは、与えられたモデルのトレーニングメンバーと非メンバーを区別できるメンバー推測攻撃(MIA)に弱いことが示されている。
しかしながら、既存のmiasは、トレーニングメンバのソース、すなわちトレーニングメンバを所有するクライアントの情報を無視し、flのソースプライバシを、すべてのクライアントからの例のメンバプライバシを越えて探求することが不可欠である。
ソース情報の漏洩は、深刻なプライバシー問題を引き起こす可能性がある。
例えば、新型コロナウイルスのパンデミックのためのFLモデルのトレーニングに寄与する病院の特定は、病院の所有者が高いリスク領域にいる場合、この病院のデータ記録の所有者を識別しやすくする可能性がある。
本稿では,トレーニングメンバのソースを最適に推定できる,ソース推論アタック(sia)と呼ばれる新しい推論アタックを提案する。
具体的には,真正なサーバが,flプロトコルに違反することなく,トレーニングメンバの非自明なソース情報を盗むためのsiaを起動できることを実証するために,ベイズ的視点を革新的に採用する。
サーバは、トレーニングメンバーのローカルモデルの予測損失を利用して、攻撃を効果的かつ非侵襲的に達成する。
我々は,1つの合成データと5つの実データを用いて,SIAの重要要素を評価する実験を行い,提案手法の有効性を示した。
関連論文リスト
- Privacy-Preserving Federated Learning via Dataset Distillation [9.60829979241686]
フェデレートラーニング(FL)では、生のデータの代わりに知識を共有することで、モデルのトレーニングを高精度に行うことができる。
トレーニング中、ユーザーは共有されている知識をコントロールできなくなり、データプライバシの深刻な問題を引き起こす。
FLトレーニングに最小特権(PoLP)の原則を導入することを目的としたFLiPを提案する。
論文 参考訳(メタデータ) (2024-10-25T13:20:40Z) - Membership Information Leakage in Federated Contrastive Learning [7.822625013699216]
Federated Contrastive Learning (FCL) は、分散化されたラベルなしデータから学ぶための急成長するアプローチである。
FCLは、メンバーシップ情報漏洩など、その分散特性から生じるプライバシーリスクに影響を受けやすい。
本研究は、FCLに対するメンバシップ推論攻撃の実行可能性について検討し、ロバスト攻撃手法を提案する。
論文 参考訳(メタデータ) (2024-03-06T19:53:25Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - FLTrojan: Privacy Leakage Attacks against Federated Language Models Through Selective Weight Tampering [2.2194815687410627]
悪意のあるクライアントが、サーバからの協力なしに、FL内の他のユーザのプライバシーに敏感なデータを漏洩させる方法を示す。
提案手法は, 最大71%の個人データ再構成を達成し, 会員推算率を29%向上させる。
論文 参考訳(メタデータ) (2023-10-24T19:50:01Z) - Source Inference Attacks: Beyond Membership Inference Attacks in Federated Learning [41.17721074614915]
フェデレートラーニング(FL)は、プライバシを意識した機械学習を促進する一般的なアプローチである。
そこで本研究では,トレーニングレコードのソースクライアントを識別するために,真面目なサーバを容易にするための新たな推論攻撃を提案する。
論文 参考訳(メタデータ) (2023-09-30T01:56:04Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - Active Membership Inference Attack under Local Differential Privacy in
Federated Learning [18.017082794703555]
フェデレートラーニング(FL)は元々、データプライバシ保護を備えたクライアント間での協調学習のフレームワークとして見なされていた。
本稿では,FLにおける不適切なサーバによって実行される新たなアクティブメンバシップ推論(AMI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-24T15:21:39Z) - Unraveling the Connections between Privacy and Certified Robustness in
Federated Learning Against Poisoning Attacks [68.20436971825941]
フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための、効率的なパラダイムを提供する。
いくつかの研究により、FLは毒殺攻撃に弱いことが示されている。
ローカルユーザのプライバシを保護するため、FLは通常、差分プライベートな方法でトレーニングされる。
論文 参考訳(メタデータ) (2022-09-08T21:01:42Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。