論文の概要: POSEIDON: Privacy-Preserving Federated Neural Network Learning
- arxiv url: http://arxiv.org/abs/2009.00349v3
- Date: Fri, 8 Jan 2021 13:27:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 01:53:58.552603
- Title: POSEIDON: Privacy-Preserving Federated Neural Network Learning
- Title(参考訳): POSEIDON:プライバシ保護フェデレーションニューラルネットワーク学習
- Authors: Sinem Sav, Apostolos Pyrgelis, Juan R. Troncoso-Pastoriza, David
Froelicher, Jean-Philippe Bossuat, Joao Sa Sousa, and Jean-Pierre Hubaux
- Abstract要約: POSEIDONは、プライバシ保護ニューラルネットワークトレーニングの世界で、最初のタイプのものだ。
トレーニングデータ、モデル、評価データの機密性を維持するために、マルチパーティの格子ベースの暗号を用いる。
MNISTデータセットに784の特徴と60Kのサンプルを2時間以内で10のパーティに分散させた3層ニューラルネットワークをトレーニングする。
- 参考スコア(独自算出の注目度): 8.103262600715864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we address the problem of privacy-preserving training and
evaluation of neural networks in an $N$-party, federated learning setting. We
propose a novel system, POSEIDON, the first of its kind in the regime of
privacy-preserving neural network training. It employs multiparty lattice-based
cryptography to preserve the confidentiality of the training data, the model,
and the evaluation data, under a passive-adversary model and collusions between
up to $N-1$ parties. To efficiently execute the secure backpropagation
algorithm for training neural networks, we provide a generic packing approach
that enables Single Instruction, Multiple Data (SIMD) operations on encrypted
data. We also introduce arbitrary linear transformations within the
cryptographic bootstrapping operation, optimizing the costly cryptographic
computations over the parties, and we define a constrained optimization problem
for choosing the cryptographic parameters. Our experimental results show that
POSEIDON achieves accuracy similar to centralized or decentralized non-private
approaches and that its computation and communication overhead scales linearly
with the number of parties. POSEIDON trains a 3-layer neural network on the
MNIST dataset with 784 features and 60K samples distributed among 10 parties in
less than 2 hours.
- Abstract(参考訳): 本稿では,プライバシ保護トレーニングの課題と,n$パーティの連合学習環境におけるニューラルネットワークの評価について述べる。
本稿では,プライバシ保護型ニューラルネットワークトレーニングシステムにおいて,最初のシステムであるposidonを提案する。
訓練データ、モデル、評価データの機密性を保持するために、複数パーティの格子ベースの暗号を用いて、受動的-敵対的モデルと最大$n-1$パーティ間のコラボレーションに基づいている。
ニューラルネットワークをトレーニングするためのセキュアなバックプロパゲーションアルゴリズムを効率的に実行するために、暗号化されたデータに対するSingle Instruction, Multiple Data (SIMD)操作を可能にするジェネリックパッキングアプローチを提供する。
また,暗号ブートストラップ操作内に任意の線形変換を導入し,コストのかかる暗号計算を最適化し,暗号パラメータを選択するための制約付き最適化問題を定義する。
実験の結果,POSEIDONは中央集権的あるいは分散化された非私的アプローチと同様の精度を達成でき,その計算と通信オーバーヘッドはパーティ数と線形にスケールすることがわかった。
POSEIDONは、MNISTデータセットに784の特徴と60Kのサンプルを2時間以内で10のパーティに分散させた3層ニューラルネットワークをトレーニングする。
関連論文リスト
- Neural Network Training on Encrypted Data with TFHE [0.0]
ニューラルネットワークのトレーニングをアウトソーシングする上で,悪意のある関係者からのデータの機密性を確保しながら,そのアウトソーシングを行うアプローチを提案する。
完全に同型な暗号化を使用して、暗号化データで動作し、量子化されたニューラルネットワークモデルを学ぶ統一的なトレーニングアプローチを構築します。
論文 参考訳(メタデータ) (2024-01-29T13:07:08Z) - A Novel Neural Network-Based Federated Learning System for Imbalanced
and Non-IID Data [2.9642661320713555]
ほとんどの機械学習アルゴリズムは、様々なソースから収集される大量のデータに大きく依存している。
この問題に対処するため、研究者らはフェデレーション学習を導入し、クライアントデータのプライバシーを確保することによって予測モデルを学習した。
本研究では,ニューラルネットワークに基づくフェデレーション学習システムを提案する。
論文 参考訳(メタデータ) (2023-11-16T17:14:07Z) - Fast, Distribution-free Predictive Inference for Neural Networks with
Coverage Guarantees [25.798057062452443]
本稿では,予測推論(PI)のための新しい計算効率アルゴリズムを提案する。
データに対する分布的な仮定は不要で、ニューラルネットワークの既存のブートストラップ方式よりも高速に計算できる。
論文 参考訳(メタデータ) (2023-06-11T04:03:58Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - NeuralDP Differentially private neural networks by design [61.675604648670095]
ニューラルネットワーク内のいくつかの層の活性化を民営化する手法であるNeuralDPを提案する。
本研究では,DP-SGDと比較して,プライバシーとユーティリティのトレードオフを大幅に改善した2つのデータセットを実験的に検証した。
論文 参考訳(メタデータ) (2021-07-30T12:40:19Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - NN-EMD: Efficiently Training Neural Networks using Encrypted
Multi-Sourced Datasets [7.067870969078555]
暗号化データセット上で機械学習モデルをトレーニングすることは、プライバシ保護機械学習タスクに対処するための、既存の有望なアプローチである。
複数の情報源から収集された複数のデータセット上でディープニューラルネットワーク(DNN)モデルをトレーニングするための新しいフレームワークであるNN-EMDを提案する。
MNISTデータセットのトレーニング時間とモデル精度について,本フレームワークの性能評価を行った。
論文 参考訳(メタデータ) (2020-12-18T23:01:20Z) - Towards Scalable and Privacy-Preserving Deep Neural Network via
Algorithmic-Cryptographic Co-design [28.789702559193675]
スケーラブルでプライバシ保護の深いニューラルネットワーク学習フレームワークであるSPNNを提案する。
暗号の観点から,秘密共有とホモモルフィック暗号化という2種類の暗号技術を用いて提案する。
実世界のデータセット上で行った実験結果はSPNNの優位性を示している。
論文 参考訳(メタデータ) (2020-12-17T02:26:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。