論文の概要: Subject Membership Inference Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2206.03317v1
- Date: Tue, 7 Jun 2022 14:06:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 13:45:59.125918
- Title: Subject Membership Inference Attacks in Federated Learning
- Title(参考訳): フェデレーション学習における主観的メンバーシップ推論攻撃
- Authors: Anshuman Suri, Pallika Kanani, Virendra J. Marathe, Daniel W. Peterson
- Abstract要約: フェデレーション学習におけるプライバシ(FL)は、個々のデータポイントを保護するアイテムレベルと、フェデレーション内の各ユーザ(参加者)を保護するユーザレベルという2つの異なる粒度で研究される。
近年、複数のユーザがクロスサイロFL設定でデータを分散する個人のプライバシーを保護するために、対象レベルのプライバシが代替プライバシの粒度として浮上している。
敵は、訓練されたモデルを攻撃することによって、これらの個人(例えば、データ・サブジェクト)のプライベートな情報を回復することに興味があるかもしれない。
我々は,様々な合成フェデレーション構成を生成するシミュレータを設計し,その実現を可能にした。
- 参考スコア(独自算出の注目度): 4.377743737361996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy in Federated Learning (FL) is studied at two different granularities:
item-level, which protects individual data points, and user-level, which
protects each user (participant) in the federation. Nearly all of the private
FL literature is dedicated to studying privacy attacks and defenses at these
two granularities. Recently, subject-level privacy has emerged as an
alternative privacy granularity to protect the privacy of individuals (data
subjects) whose data is spread across multiple (organizational) users in
cross-silo FL settings. An adversary might be interested in recovering private
information about these individuals (a.k.a. \emph{data subjects}) by attacking
the trained model. A systematic study of these patterns requires complete
control over the federation, which is impossible with real-world datasets. We
design a simulator for generating various synthetic federation configurations,
enabling us to study how properties of the data, model design and training, and
the federation itself impact subject privacy risk. We propose three attacks for
\emph{subject membership inference} and examine the interplay between all
factors within a federation that affect the attacks' efficacy. We also
investigate the effectiveness of Differential Privacy in mitigating this
threat. Our takeaways generalize to real-world datasets like FEMNIST, giving
credence to our findings.
- Abstract(参考訳): フェデレーション学習におけるプライバシ(FL)は、個々のデータポイントを保護するアイテムレベルと、フェデレーション内の各ユーザ(参加者)を保護するユーザレベルという2つの異なる粒度で研究される。
プライベートなfl文学のほとんどすべてが、プライバシー攻撃とこの2つの粒度の防御の研究に費やされている。
近年,複数の(組織的な)FL設定でデータを分散する個人(データ主体)のプライバシを保護する手段として,主観レベルのプライバシが登場している。
敵は、訓練されたモデルを攻撃することによって、これらの個人に関する情報(例えば、データ科目)を回収することに興味があるかもしれない。
これらのパターンを体系的に研究するには、実際のデータセットでは不可能なフェデレーションを完全に制御する必要がある。
我々は,様々な合成フェデレーション構成を生成するシミュレータを設計し,データの性質,モデル設計とトレーニング,およびフェデレーション自体がプライバシリスクに与える影響について検討する。
我々は, \emph{subject member inference} に対する3つの攻撃を提案し,攻撃の有効性に影響を与えるフェデレーション内のすべての因子間の相互作用を検討する。
また,この脅威を緩和する上でのディファレンシャルプライバシの有効性についても検討する。
われわれの分析結果はfemnistのような現実世界のデータセットに一般化され、われわれの発見に信頼を与えている。
関連論文リスト
- FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - FLTrojan: Privacy Leakage Attacks against Federated Language Models Through Selective Weight Tampering [2.2194815687410627]
悪意のあるクライアントが、サーバからの協力なしに、FL内の他のユーザのプライバシーに敏感なデータを漏洩させる方法を示す。
提案手法は, 最大71%の個人データ再構成を達成し, 会員推算率を29%向上させる。
論文 参考訳(メタデータ) (2023-10-24T19:50:01Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - Sotto Voce: Federated Speech Recognition with Differential Privacy
Guarantees [0.761963751158349]
音声データは収集するのに高価で、情報源に非常に敏感です。
組織が独立して自身の使用のために小さなデータセットを収集している場合が多いが、マシンラーニングの要求に対してパフォーマンスが低い場合も少なくない。
しかし、明快なデータ共有は、知的財産の喪失とデータセットに存在する個人のプライバシーの喪失という点で、非常に危険なリスクを伴っている。
論文 参考訳(メタデータ) (2022-07-16T02:48:54Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - Towards Multi-Objective Statistically Fair Federated Learning [1.2687030176231846]
フェデレートラーニング(FL)は、データの所有権とプライバシーに関する懸念の結果生まれた。
本稿では,様々な統計的公正度指標を含む複数の目的を満足できる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-24T19:22:01Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。