論文の概要: PRIVEE: Privacy-Preserving Vertical Federated Learning Against Feature Inference Attacks
- arxiv url: http://arxiv.org/abs/2512.12840v1
- Date: Sun, 14 Dec 2025 21:05:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.468241
- Title: PRIVEE: Privacy-Preserving Vertical Federated Learning Against Feature Inference Attacks
- Title(参考訳): PRIVEE: 機能推論攻撃に対するプライバシー保護型垂直的学習
- Authors: Sindhuja Madabushi, Ahmad Faraz Khan, Haider Ali, Ananthram Swami, Rui Ning, Hongyi Wu, Jin-Hee Cho,
- Abstract要約: 我々はフランス語で「私的」を意味するprivéeに因んで命名された新しい防衛機構を提案する。
PRIvacy-serving Vertical fEderated lEarning is obfuscates confidence scores whileserving critical properties such as relative ranking and inter-score distances。
実験によると、PRIVEEは最先端の防衛法に比べてプライバシー保護の3倍の改善を実現している。
- 参考スコア(独自算出の注目度): 20.61987420750636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vertical Federated Learning (VFL) enables collaborative model training across organizations that share common user samples but hold disjoint feature spaces. Despite its potential, VFL is susceptible to feature inference attacks, in which adversarial parties exploit shared confidence scores (i.e., prediction probabilities) during inference to reconstruct private input features of other participants. To counter this threat, we propose PRIVEE (PRIvacy-preserving Vertical fEderated lEarning), a novel defense mechanism named after the French word privée, meaning "private." PRIVEE obfuscates confidence scores while preserving critical properties such as relative ranking and inter-score distances. Rather than exposing raw scores, PRIVEE shares only the transformed representations, mitigating the risk of reconstruction attacks without degrading model prediction accuracy. Extensive experiments show that PRIVEE achieves a threefold improvement in privacy protection compared to state-of-the-art defenses, while preserving full predictive performance against advanced feature inference attacks.
- Abstract(参考訳): Vertical Federated Learning (VFL)は、共通のユーザサンプルを共有しながら、相反する機能空間を保持する組織間のコラボレーションモデルトレーニングを可能にする。
その可能性にもかかわらず、VFLは、相手が推論中に共有信頼スコア(つまり予測確率)を利用して他の参加者のプライベートな入力特徴を再構築する機能的推論攻撃に感受性がある。
この脅威に対処するため、我々はPRIVEE (PRIvacy-serving Vertical fEderated lEarning) を提案する。
PRIVEEは、相対ランクやスコア間距離などの重要な特性を保持しながら、信頼スコアを曖昧にする。
生のスコアを公開する代わりに、PRIVEEは変換された表現のみを共有し、モデル予測精度を低下させることなく再構築攻撃のリスクを軽減する。
広範な実験により、PRIVEEは最先端の防御よりもプライバシー保護を3倍改善し、高度な機能推論攻撃に対して完全な予測性能を保っていることが示された。
関連論文リスト
- GuardFed: A Trustworthy Federated Learning Framework Against Dual-Facet Attacks [56.983319121358555]
フェデレートラーニング(FL)は、プライバシ保護のための協調モデルトレーニングを可能にするが、敵の行動に弱いままである。
本稿では,予測精度とグループフェアネスを同時に損なう新たな脅威モデルであるデュアル顔攻撃(DFA)を紹介する。
本稿では,少量のクリーンサーバデータを用いて,公正な参照モデルを維持する自己適応型防衛フレームワークであるGuardFedを提案する。
論文 参考訳(メタデータ) (2025-11-12T13:02:45Z) - VoxGuard: Evaluating User and Attribute Privacy in Speech via Membership Inference Attacks [51.68795949691009]
差分プライバシとメンバシップ推論に基づくフレームワークであるVoxGuardを紹介した。
属性については, 匿名化後も, 性別やアクセントをほぼ完全精度で再現できることが示唆された。
以上の結果から,EERはリークを著しく過小評価し,低FPR評価の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-09-22T20:57:48Z) - Do Fairness Interventions Come at the Cost of Privacy: Evaluations for Binary Classifiers [17.243744418309593]
我々は、メンバーシップ推論攻撃(MIA)と属性推論攻撃(AIA)により、公平性向上したバイナリ分類器のプライバシーリスクを評価する。
公正なモデルと偏見のあるモデルの間の予測不一致を利用して、MIAとAIAの両方に対する高度な攻撃結果をもたらす潜在的な脅威メカニズムを明らかにする。
本研究は、フェアネス研究における未調査のプライバシー上の脅威を明らかにし、モデル展開前に潜在的なセキュリティ脆弱性を徹底的に評価することを提唱する。
論文 参考訳(メタデータ) (2025-03-08T10:21:21Z) - Evaluations of Machine Learning Privacy Defenses are Misleading [25.007083740549845]
機械学習プライバシに対する実証的な防御は、証明可能な差分プライバシの保証を禁止します。
先行評価では、最も脆弱なサンプルのプライバシー漏洩を特徴付けることができない。
論文 参考訳(メタデータ) (2024-04-26T13:21:30Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Flexible Differentially Private Vertical Federated Learning with
Adaptive Feature Embeddings [24.36847069007795]
垂直連合学習(VFL)は、プライバシー保護の欠陥に対する懸念を刺激している。
本稿では、データプライバシとVFLのタスクユーティリティ目標との微妙な均衡を差分プライバシー(DP)下で検討する。
我々は2つの目標を分離し、それらを順次解決するフレキシブルで汎用的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-26T04:40:51Z) - Defending against Reconstruction Attacks with R\'enyi Differential
Privacy [72.1188520352079]
レコンストラクション攻撃により、敵は訓練されたモデルのみにアクセスすることで、トレーニングセットのデータサンプルを再生することができる。
差別化プライバシはこのような攻撃に対する既知の解決策であるが、比較的大きなプライバシ予算で使用されることが多い。
また、同機構により、従来の文献よりも優れた復元攻撃に対するプライバシー保証を導出できることを示す。
論文 参考訳(メタデータ) (2022-02-15T18:09:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。