論文の概要: Feature Space Hijacking Attacks against Differentially Private Split
Learning
- arxiv url: http://arxiv.org/abs/2201.04018v1
- Date: Tue, 11 Jan 2022 16:06:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 16:03:48.746885
- Title: Feature Space Hijacking Attacks against Differentially Private Split
Learning
- Title(参考訳): 差動的個人分割学習に対する特徴空間ハイジャック攻撃
- Authors: Grzegorz Gawron, Philip Stubbings
- Abstract要約: 分散学習と差分プライバシーは、分散データセット上でのプライバシーに準拠した高度な分析を支援する可能性がある技術である。
この研究は、クライアントサイドのオフザシェルフDPを使用して、差分プライバシ(DP)で強化されたスプリットニューラルネットワークの学習プロセスに、最近のフィーチャースペースハイジャック攻撃(FSHA)を適用している。
FSHA攻撃は、任意に設定されたDPエプシロンレベルでエラー率の低いクライアントのプライベートデータ再構成を取得する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Split learning and differential privacy are technologies with growing
potential to help with privacy-compliant advanced analytics on distributed
datasets. Attacks against split learning are an important evaluation tool and
have been receiving increased research attention recently. This work's
contribution is applying a recent feature space hijacking attack (FSHA) to the
learning process of a split neural network enhanced with differential privacy
(DP), using a client-side off-the-shelf DP optimizer. The FSHA attack obtains
client's private data reconstruction with low error rates at arbitrarily set DP
epsilon levels. We also experiment with dimensionality reduction as a potential
attack risk mitigation and show that it might help to some extent. We discuss
the reasons why differential privacy is not an effective protection in this
setting and mention potential other risk mitigation methods.
- Abstract(参考訳): 分散学習と差分プライバシーは、分散データセット上のプライバシーに準拠した高度な分析を支援する可能性がある技術である。
分割学習に対する攻撃は重要な評価ツールであり、近年研究の注目を集めている。
この研究の貢献は、クライアントサイドのオフザシェルDPオプティマイザを使用して、差分プライバシ(DP)によって強化されたスプリットニューラルネットワークの学習プロセスに、最近のフィーチャースペースハイジャック攻撃(FSHA)を適用することである。
FSHA攻撃は、任意に設定されたDPエプシロンレベルでエラー率の低いクライアントのプライベートデータ再構成を取得する。
また,攻撃リスク軽減の可能性を示唆する次元的低減実験を行い,ある程度の有効性を示す。
この設定において、差分プライバシーが効果的な保護ではない理由を論じ、他のリスク軽減手法についても言及する。
関連論文リスト
- Mitigating Disparate Impact of Differential Privacy in Federated Learning through Robust Clustering [4.768272342753616]
Federated Learning(FL)は、データをローカライズする分散機械学習(ML)アプローチである。
最近の研究は、クラスタリングによるバニラFLの性能公平性に対処しようと試みているが、この手法は依然として敏感であり、エラーを起こしやすい。
本稿では,クライアントのクラスタを高度に均一な設定で効果的に識別する新しいクラスタ化DPFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T17:03:31Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Differentially private sliced inverse regression in the federated
paradigm [3.539008590223188]
Sliced inverse regression(SIR)を拡張して、分散データの課題に対処し、プライバシと通信効率を優先する。
我々の手法はFSIR (Federated sliced inverse regression) と呼ばれ、複数のクライアント間で十分な次元削減部分空間を協調的に推定する。
論文 参考訳(メタデータ) (2023-06-10T00:32:39Z) - Discriminative Adversarial Privacy: Balancing Accuracy and Membership
Privacy in Neural Networks [7.0895962209555465]
DAP(Dariminative Adversarial Privacy)は、モデルの性能、速度、プライバシのバランスを達成するために設計された学習技術である。
DAPは、MIAの誤差を最大化しながら予測誤差を最小化できる新しい損失関数に基づく敵の訓練に依存している。
さらに、パフォーマンスプライバシのトレードオフを捉えるために、AOP(Acuracy Over Privacy)と呼ばれる新しいメトリクスを紹介します。
論文 参考訳(メタデータ) (2023-06-05T17:25:45Z) - Secure Split Learning against Property Inference, Data Reconstruction,
and Feature Space Hijacking Attacks [5.209316363034367]
ディープニューラルネットワーク(SplitNN)の分割学習は、ゲストとホストの相互関心のために共同で学習するための有望なソリューションを提供する。
SplitNNは、敵の参加者のための新たな攻撃面を作成し、現実の世界での使用を抑える。
本稿では,プロパティ推論,データ再構成,特徴的ハイジャック攻撃など,高度に脅かされる攻撃の敵対的効果について検討する。
本稿では,R3eLUという新たなアクティベーション関数を提案する。
論文 参考訳(メタデータ) (2023-04-19T09:08:23Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。