論文の概要: Theoretically Unmasking Inference Attacks Against LDP-Protected Clients in Federated Vision Models
- arxiv url: http://arxiv.org/abs/2506.17292v1
- Date: Mon, 16 Jun 2025 21:48:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.31663
- Title: Theoretically Unmasking Inference Attacks Against LDP-Protected Clients in Federated Vision Models
- Title(参考訳): フェデレーションビジョンモデルにおけるLPP検出クライアントに対する理論的に推論攻撃
- Authors: Quan Nguyen, Minh N. Vu, Truc Nguyen, My T. Thai,
- Abstract要約: フェデレーション学習は、直接的なデータ共有を避けながら、サーバの調整を通じてクライアント間の協調学習を可能にする。
メンバーシップ推論攻撃(MIA)に関する最近の研究は、この概念に異議を唱えており、未保護のトレーニングデータに対する高い成功率を示している。
完全連結層や自己アテンション層の脆弱性を利用する低ポリノミカル時間MIAの成功率について理論的に低い境界を導出する。
- 参考スコア(独自算出の注目度): 22.023648710005734
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Federated Learning enables collaborative learning among clients via a coordinating server while avoiding direct data sharing, offering a perceived solution to preserve privacy. However, recent studies on Membership Inference Attacks (MIAs) have challenged this notion, showing high success rates against unprotected training data. While local differential privacy (LDP) is widely regarded as a gold standard for privacy protection in data analysis, most studies on MIAs either neglect LDP or fail to provide theoretical guarantees for attack success rates against LDP-protected data. To address this gap, we derive theoretical lower bounds for the success rates of low-polynomial time MIAs that exploit vulnerabilities in fully connected or self-attention layers. We establish that even when data are protected by LDP, privacy risks persist, depending on the privacy budget. Practical evaluations on federated vision models confirm considerable privacy risks, revealing that the noise required to mitigate these attacks significantly degrades models' utility.
- Abstract(参考訳): Federated Learningは、クライアント間での協調学習を可能にすると同時に、直接的なデータ共有を回避し、プライバシを保護するための認識されたソリューションを提供する。
しかし、近年のMIA(Community Inference Attacks)の研究は、この概念に異議を唱え、未保護のトレーニングデータに対する高い成功率を示している。
ローカルディファレンシャルプライバシ(LDP)は、データ分析におけるプライバシ保護のゴールドスタンダードとして広く見なされているが、MIAに関するほとんどの研究は、LDPを無視したり、LDPが保護したデータに対する攻撃成功率の理論的保証を提供しなかった。
このギャップに対処するために、完全連結層や自己保持層における脆弱性を利用する低ポリノミカル時間MIAの成功率に関する理論的低い境界を導出する。
我々は、データが LDP によって保護されている場合でも、プライバシーの予算によってプライバシーのリスクが持続することを確認した。
フェデレートされた視覚モデルに対する実践的な評価は、プライバシのリスクをかなり確認し、これらの攻撃を緩和するために必要なノイズがモデルの有用性を著しく低下させることを明らかにした。
関連論文リスト
- A Survey on Privacy Risks and Protection in Large Language Models [13.602836059584682]
大規模言語モデル(LLM)は多様なアプリケーションにますます統合され、プライバシーの懸念が高まっている。
この調査は、LCMに関連するプライバシーリスクの包括的概要を提供し、これらの課題を軽減するための現在のソリューションを調べます。
論文 参考訳(メタデータ) (2025-05-04T03:04:07Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - No Free Lunch Theorem for Privacy-Preserving LLM Inference [30.554456047738295]
本研究では,プライバシ保護型大規模言語モデル(LLM)を推定するためのフレームワークを開発する。
プライバシー保護とユーティリティの相互作用を調べるための、しっかりとした理論的基盤を築いている。
論文 参考訳(メタデータ) (2024-05-31T08:22:53Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Active Membership Inference Attack under Local Differential Privacy in
Federated Learning [18.017082794703555]
フェデレートラーニング(FL)は元々、データプライバシ保護を備えたクライアント間での協調学習のフレームワークとして見なされていた。
本稿では,FLにおける不適切なサーバによって実行される新たなアクティブメンバシップ推論(AMI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-24T15:21:39Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。