論文の概要: Subject Membership Inference Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2206.03317v3
- Date: Fri, 2 Jun 2023 13:38:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 21:17:53.280921
- Title: Subject Membership Inference Attacks in Federated Learning
- Title(参考訳): フェデレーション学習における主観的メンバーシップ推論攻撃
- Authors: Anshuman Suri, Pallika Kanani, Virendra J. Marathe, Daniel W. Peterson
- Abstract要約: 対象者推定のためのブラックボックス攻撃を2つ提案する。
正確なトレーニング記録にアクセスしなくても、攻撃は極めて強力なものだと考えています。
また、この脅威を緩和する上での差別化プライバシの有効性についても検討する。
- 参考スコア(独自算出の注目度): 4.377743737361996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy attacks on Machine Learning (ML) models often focus on inferring the
existence of particular data points in the training data. However, what the
adversary really wants to know is if a particular individual's (subject's) data
was included during training. In such scenarios, the adversary is more likely
to have access to the distribution of a particular subject than actual records.
Furthermore, in settings like cross-silo Federated Learning (FL), a subject's
data can be embodied by multiple data records that are spread across multiple
organizations. Nearly all of the existing private FL literature is dedicated to
studying privacy at two granularities -- item-level (individual data records),
and user-level (participating user in the federation), neither of which apply
to data subjects in cross-silo FL. This insight motivates us to shift our
attention from the privacy of data records to the privacy of data subjects,
also known as subject-level privacy. We propose two novel black-box attacks for
subject membership inference, of which one assumes access to a model after each
training round. Using these attacks, we estimate subject membership inference
risk on real-world data for single-party models as well as FL scenarios. We
find our attacks to be extremely potent, even without access to exact training
records, and using the knowledge of membership for a handful of subjects. To
better understand the various factors that may influence subject privacy risk
in cross-silo FL settings, we systematically generate several hundred synthetic
federation configurations, varying properties of the data, model design and
training, and the federation itself. Finally, we investigate the effectiveness
of Differential Privacy in mitigating this threat.
- Abstract(参考訳): 機械学習(ML)モデルに対するプライバシ攻撃は、トレーニングデータに特定のデータポイントが存在することを推測することに集中することが多い。
しかし、相手が本当に知りたいのは、訓練中に特定の個人(対象)のデータが含まれているかどうかです。
このようなシナリオでは、敵は実際の記録よりも特定の主題の分布にアクセスできる可能性が高い。
さらに、クロスサイロフェデレートラーニング(FL)のような設定では、複数の組織にまたがる複数のデータレコードによって、対象データの具体化が可能である。
既存のプライベートFL文献のほぼ全てが、アイテムレベル(個人データ記録)とユーザレベル(フェデレーションに参加するユーザ)の2つの粒度のプライバシーの研究に費やされているが、どちらもクロスサイロFLのデータ対象には当てはまらない。
この洞察は、データレコードのプライバシから、主題レベルのプライバシとして知られるデータサブジェクトのプライバシに、私たちの注意を移す動機となります。
そこで本研究では,各トレーニングラウンド後のモデルへのアクセスを想定した2つの新しいブラックボックス攻撃を提案する。
これらの攻撃を用いて、単体モデルとFLシナリオの実際のデータに対する対象メンバーシップ推定リスクを推定する。
正確な訓練記録にアクセスできず、少数の被験者の会員の知識を使わずとも、我々の攻撃は極めて強力なものとなる。
クロスサイロfl設定において、対象プライバシリスクに影響を及ぼすさまざまな要因をより深く理解するために、数百の合成フェデレーション構成、データの性質、モデル設計とトレーニング、フェデレーション自体を体系的に生成する。
最後に,この脅威を緩和する上での差分プライバシーの有効性について検討する。
関連論文リスト
- FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - FLTrojan: Privacy Leakage Attacks against Federated Language Models Through Selective Weight Tampering [2.2194815687410627]
悪意のあるクライアントが、サーバからの協力なしに、FL内の他のユーザのプライバシーに敏感なデータを漏洩させる方法を示す。
提案手法は, 最大71%の個人データ再構成を達成し, 会員推算率を29%向上させる。
論文 参考訳(メタデータ) (2023-10-24T19:50:01Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - Sotto Voce: Federated Speech Recognition with Differential Privacy
Guarantees [0.761963751158349]
音声データは収集するのに高価で、情報源に非常に敏感です。
組織が独立して自身の使用のために小さなデータセットを収集している場合が多いが、マシンラーニングの要求に対してパフォーマンスが低い場合も少なくない。
しかし、明快なデータ共有は、知的財産の喪失とデータセットに存在する個人のプライバシーの喪失という点で、非常に危険なリスクを伴っている。
論文 参考訳(メタデータ) (2022-07-16T02:48:54Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - Towards Multi-Objective Statistically Fair Federated Learning [1.2687030176231846]
フェデレートラーニング(FL)は、データの所有権とプライバシーに関する懸念の結果生まれた。
本稿では,様々な統計的公正度指標を含む複数の目的を満足できる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-24T19:22:01Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。