論文の概要: Membership Inference Attacks and Defenses in Federated Learning: A Survey
- arxiv url: http://arxiv.org/abs/2412.06157v1
- Date: Mon, 09 Dec 2024 02:39:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:52:14.808609
- Title: Membership Inference Attacks and Defenses in Federated Learning: A Survey
- Title(参考訳): フェデレーションラーニングにおける会員推測攻撃と防衛
- Authors: Li Bai, Haibo Hu, Qingqing Ye, Haoyang Li, Leixia Wang, Jianliang Xu,
- Abstract要約: フェデレートラーニング(Federated Learning)は、クライアントがローカルにモデルをトレーニングし、モデル更新を共有してグローバルモデルを開発する、分散機械学習アプローチである。
これは、特定のサンプルがトレーニングセットの一部であるかどうかを判断することで、クライアントのプライバシをターゲットとする。
これらの攻撃は、医療システム内の医療診断など、現実世界の応用における機密情報を侵害する可能性がある。
- 参考スコア(独自算出の注目度): 25.581491871183815
- License:
- Abstract: Federated learning is a decentralized machine learning approach where clients train models locally and share model updates to develop a global model. This enables low-resource devices to collaboratively build a high-quality model without requiring direct access to the raw training data. However, despite only sharing model updates, federated learning still faces several privacy vulnerabilities. One of the key threats is membership inference attacks, which target clients' privacy by determining whether a specific example is part of the training set. These attacks can compromise sensitive information in real-world applications, such as medical diagnoses within a healthcare system. Although there has been extensive research on membership inference attacks, a comprehensive and up-to-date survey specifically focused on it within federated learning is still absent. To fill this gap, we categorize and summarize membership inference attacks and their corresponding defense strategies based on their characteristics in this setting. We introduce a unique taxonomy of existing attack research and provide a systematic overview of various countermeasures. For these studies, we thoroughly analyze the strengths and weaknesses of different approaches. Finally, we identify and discuss key future research directions for readers interested in advancing the field.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、クライアントがローカルにモデルをトレーニングし、モデル更新を共有してグローバルモデルを開発する、分散機械学習アプローチである。
これにより、低リソースデバイスは、生のトレーニングデータに直接アクセスすることなく、高品質なモデルを構築することができる。
しかし、モデルのアップデートのみを共有するにもかかわらず、フェデレーション学習はいくつかのプライバシー上の脆弱性に直面している。
これは、特定のサンプルがトレーニングセットの一部であるかどうかを判断することで、クライアントのプライバシをターゲットとする。
これらの攻撃は、医療システム内の医療診断など、現実世界の応用における機密情報を侵害する可能性がある。
メンバーシップ推論攻撃に関する広範な研究は行われているが、フェデレートラーニングに特に焦点を絞った包括的かつ最新の調査はいまだに行われていない。
このギャップを埋めるために,我々は,その特性に基づいて,会員推論攻撃とその対応する防衛戦略を分類・要約する。
既存の攻撃研究の独自の分類法を導入し、様々な対策を体系的に概説する。
これらの研究は、異なるアプローチの強みと弱みを徹底的に分析する。
最後に,この分野の進展に関心のある読者を対象に,今後の研究の方向性を明らかにし,議論する。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - New Emerged Security and Privacy of Pre-trained Model: a Survey and Outlook [54.24701201956833]
セキュリティとプライバシーの問題は、事前訓練されたモデルに対するユーザーの信頼を損なう。
現在の文献は、事前訓練されたモデルに対する攻撃と防御の明確な分類を欠いている。
この分類法は、攻撃と防御をNo-Change、Input-Change、Model-Changeアプローチに分類する。
論文 参考訳(メタデータ) (2024-11-12T10:15:33Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Inference Attacks: A Taxonomy, Survey, and Promising Directions [44.290208239143126]
この調査は、ML-as-a-serviceにおける攻撃の詳細な包括的推測とそれに対応する対策を提供する。
まず,コミュニティ研究状況に基づく3MP分類法を提案する。
また、各種類の推論攻撃の長所と短所、ワークフロー、対策、およびそれらが他の攻撃とどのように相互作用するかを分析する。
論文 参考訳(メタデータ) (2024-06-04T07:06:06Z) - Privacy Leakage on DNNs: A Survey of Model Inversion Attacks and Defenses [40.77270226912783]
Model Inversion(MI)攻撃は、トレーニングされたモデルへのアクセスを悪用することで、トレーニングデータセットに関するプライベート情報を開示する。
この分野の急速な進歩にもかかわらず、我々は既存のMI攻撃と防衛の包括的かつ体系的な概要を欠いている。
我々は,近年のDeep Neural Networks(DNN)に対する攻撃と防御を,複数のモダリティと学習タスクで詳細に分析し,比較する。
論文 参考訳(メタデータ) (2024-02-06T14:06:23Z) - Data and Model Poisoning Backdoor Attacks on Wireless Federated
Learning, and the Defense Mechanisms: A Comprehensive Survey [28.88186038735176]
無線通信ネットワーク(WCN)への応用については,フェデレートラーニング(FL)がますます検討されている。
一般に、WCNの非独立で同一に分布する(非IID)データは、堅牢性に関する懸念を提起する。
この調査は、最新のバックドア攻撃と防御メカニズムの包括的なレビューを提供する。
論文 参考訳(メタデータ) (2023-12-14T05:52:29Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Membership Inference Attacks on Machine Learning: A Survey [6.468846906231666]
メンバシップ推論攻撃は、データサンプルがマシンラーニングモデルのトレーニングに使用されたかどうかを識別することを目的としている。
会員が個人の機密情報を開示できるため、深刻なプライバシーリスクを引き起こす可能性があります。
会員の推論攻撃に関する最初の包括的な調査を紹介します。
論文 参考訳(メタデータ) (2021-03-14T06:10:47Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。