論文の概要: SAPAG: A Self-Adaptive Privacy Attack From Gradients
- arxiv url: http://arxiv.org/abs/2009.06228v1
- Date: Mon, 14 Sep 2020 07:04:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 11:57:28.012899
- Title: SAPAG: A Self-Adaptive Privacy Attack From Gradients
- Title(参考訳): sapag:gradientsによる自己適応型プライバシー攻撃
- Authors: Yijue Wang, Jieren Deng, Dan Guo, Chenghong Wang, Xianrui Meng, Hang
Liu, Caiwen Ding, Sanguthevar Rajasekaran
- Abstract要約: 分散学習は、ユーザの分散データに対するモデルトレーニングを可能にする。
トレーニングデータの集中化は、プライバシに敏感なデータのプライバシー問題に対処する。
近年の研究では、分散機械学習システムにおいて、サードパーティが真のトレーニングデータを再構築できることが示されている。
- 参考スコア(独自算出の注目度): 19.533851763230693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed learning such as federated learning or collaborative learning
enables model training on decentralized data from users and only collects local
gradients, where data is processed close to its sources for data privacy. The
nature of not centralizing the training data addresses the privacy issue of
privacy-sensitive data. Recent studies show that a third party can reconstruct
the true training data in the distributed machine learning system through the
publicly-shared gradients. However, existing reconstruction attack frameworks
lack generalizability on different Deep Neural Network (DNN) architectures and
different weight distribution initialization, and can only succeed in the early
training phase. To address these limitations, in this paper, we propose a more
general privacy attack from gradient, SAPAG, which uses a Gaussian kernel based
of gradient difference as a distance measure. Our experiments demonstrate that
SAPAG can construct the training data on different DNNs with different weight
initializations and on DNNs in any training phases.
- Abstract(参考訳): フェデレートラーニングやコラボレーティブラーニングといった分散学習は、ユーザからの分散データのモデルトレーニングを可能にし、データプライバシのソースに近いデータを処理するローカル勾配のみを収集する。
トレーニングデータを集中しないことの性質は、プライバシに敏感なデータのプライバシー問題に対処する。
近年の研究では、第三者が分散機械学習システムにおける真のトレーニングデータを、公開共有勾配によって再構築できることが示されている。
しかしながら、既存のレコンストラクション攻撃フレームワークは、異なるディープニューラルネットワーク(dnn)アーキテクチャと異なる重み分布初期化の一般化性に欠けており、初期トレーニングフェーズでしか成功できない。
本稿では,この制限に対処するために,勾配差に基づくガウス核を距離尺度として用いるgradient,sapagより一般的なプライバシ攻撃を提案する。
実験の結果,SAPAGは任意の訓練段階において,重量初期化の異なる異なるDNNとDNNの訓練データを構築することができることがわかった。
関連論文リスト
- QBI: Quantile-Based Bias Initialization for Efficient Private Data Reconstruction in Federated Learning [0.5497663232622965]
フェデレーション学習は、ユーザのプライバシを損なうことなく、分散データ上で機械学習モデルのトレーニングを可能にする。
近年の研究では、中央のエンティティが共有モデル更新からプライベートデータを完全に再構築できることが示されている。
論文 参考訳(メタデータ) (2024-06-26T20:19:32Z) - On Pretraining Data Diversity for Self-Supervised Learning [57.91495006862553]
我々は、より多様なデータセットを用いたトレーニングが、固定された計算予算の下での自己教師付き学習(SSL)のパフォーマンスに与える影響について検討する。
以上の結果から,事前学習データの多様性の増大はSSL性能を向上させるが,下流データへの分布距離が最小である場合に限る。
論文 参考訳(メタデータ) (2024-03-20T17:59:58Z) - Reconstructing Training Data from Model Gradient, Provably [68.21082086264555]
ランダムに選択されたパラメータ値で1つの勾配クエリからトレーニングサンプルを再構成する。
センシティブなトレーニングデータを示す証明可能な攻撃として、われわれの発見はプライバシーに対する深刻な脅威を示唆している。
論文 参考訳(メタデータ) (2022-12-07T15:32:22Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - DQRE-SCnet: A novel hybrid approach for selecting users in Federated
Learning with Deep-Q-Reinforcement Learning based on Spectral Clustering [1.174402845822043]
実世界の機密データに基づく機械学習モデルは、医療スクリーニングから病気の発生、農業、産業、防衛科学など幅広い分野で進歩している。
多くのアプリケーションにおいて、学習参加者のコミュニケーションラウンドは、独自のプライベートデータセットを収集し、実際のデータに対して詳細な機械学習モデルを教え、これらのモデルを使用することの利点を共有することの恩恵を受ける。
既存のプライバシとセキュリティ上の懸念から、ほとんどの人はトレーニング用の機密データ共有を回避している。各ユーザがローカルデータを中央サーバにデモしない限り、フェデレートラーニングは、さまざまなパーティが共用データ上で機械学習アルゴリズムをトレーニングすることを可能にする。
論文 参考訳(メタデータ) (2021-11-07T15:14:29Z) - Weight Divergence Driven Divide-and-Conquer Approach for Optimal
Federated Learning from non-IID Data [0.0]
Federated Learningは、トレーニングデータを集中化することなく、分散デバイスに格納されたデータのトレーニングを可能にする。
本稿では,一般的なFedAvgアグリゲーションアルゴリズムの活用を可能にする,新しいDivide-and-Conquerトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-06-28T09:34:20Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Differentially Private Deep Learning with Direct Feedback Alignment [15.410557873153833]
直接フィードバックアライメント(DFA)を用いたディープニューラルネットワークのトレーニングのための最初の微分プライベート手法を提案する。
DFAは、様々なアーキテクチャにおけるバックプロップベースの差分プライベートトレーニングと比較して、精度(しばしば10-20%)が大幅に向上する。
論文 参考訳(メタデータ) (2020-10-08T00:25:22Z) - GS-WGAN: A Gradient-Sanitized Approach for Learning Differentially
Private Generators [74.16405337436213]
我々は、GS-WGAN(Gradient-sanitized Wasserstein Generative Adrial Networks)を提案する。
GS-WGANは、厳格なプライバシー保証を備えた機密データの衛生的な形式での公開を可能にする。
このアプローチは、複数のメトリクスにわたる最先端のアプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2020-06-15T10:01:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。