論文の概要: MPC-enabled Privacy-Preserving Neural Network Training against Malicious
Attack
- arxiv url: http://arxiv.org/abs/2007.12557v3
- Date: Wed, 10 Feb 2021 05:51:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 07:14:51.439088
- Title: MPC-enabled Privacy-Preserving Neural Network Training against Malicious
Attack
- Title(参考訳): 悪意障害に対するMPC対応プライバシ保護ニューラルネットワークトレーニング
- Authors: Ziyao Liu, Ivan Tjuawinata, Chaoping Xing, Kwok-Yan Lam
- Abstract要約: セキュアなニューラルネットワークトレーニングのための効率的な$n$-partyプロトコルを構築するためのアプローチを提案する。
アクティブにセキュアなニューラルネットワークトレーニングでは、LANおよびWAN設定で約2倍と2.7倍の安価な効率オーバーヘッドが発生します。
さらに、整数環 $mathbbZ_N$ 上で定義された加法的共有を有限体 $mathbbZ_Q$ 上の加法的共有に安全に変換できるスキームを提案する。
- 参考スコア(独自算出の注目度): 44.50542274828587
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The application of secure multiparty computation (MPC) in machine learning,
especially privacy-preserving neural network training, has attracted tremendous
attention from the research community in recent years. MPC enables several data
owners to jointly train a neural network while preserving the data privacy of
each participant. However, most of the previous works focus on semi-honest
threat model that cannot withstand fraudulent messages sent by malicious
participants. In this paper, we propose an approach for constructing efficient
$n$-party protocols for secure neural network training that can provide
security for all honest participants even when a majority of the parties are
malicious. Compared to the other designs that provide semi-honest security in a
dishonest majority setting, our actively secure neural network training incurs
affordable efficiency overheads of around 2X and 2.7X in LAN and WAN settings,
respectively. Besides, we propose a scheme to allow additive shares defined
over an integer ring $\mathbb{Z}_N$ to be securely converted to additive shares
over a finite field $\mathbb{Z}_Q$, which may be of independent interest. Such
conversion scheme is essential in securely and correctly converting shared
Beaver triples defined over an integer ring generated in the preprocessing
phase to triples defined over a field to be used in the calculation in the
online phase.
- Abstract(参考訳): 機械学習、特にプライバシ保護ニューラルネットワークトレーニングにおけるセキュアなマルチパーティ計算(mpc)の適用は、近年研究コミュニティから大きな注目を集めている。
mpcでは、複数のデータ所有者が、各参加者のデータプライバシを維持しながら、ニューラルネットワークを共同でトレーニングすることができる。
しかし、以前の作品のほとんどが、悪意のある参加者が送った不正なメッセージに耐えられない半正統な脅威モデルに焦点が当てられている。
本稿では,多数の当事者が悪意を持っていても,すべての誠実な参加者にセキュリティを提供するセキュアなニューラルネットワークトレーニングのための効率的なn$パーティプロトコルを構築するためのアプローチを提案する。
ニューラルネットワークのトレーニングでは、LANとWANの設定でそれぞれ約2倍、約2.7倍の安価な効率上のオーバーヘッドが発生しています。
さらに、整数環 $\mathbb{z}_n$ 上で定義される加法的共有を、独立興味を持つ有限体 $\mathbb{z}_q$ 上の加法的共有に安全に変換できるスキームを提案する。
このような変換方式は、前処理フェーズで生成された整数環上で定義された共有ビーバー三重項を、オンラインフェーズで計算に使用するフィールド上で定義された三重項に変換するのに必須である。
関連論文リスト
- Edge-Only Universal Adversarial Attacks in Distributed Learning [49.546479320670464]
本研究では,攻撃者がモデルのエッジ部分のみにアクセスした場合に,ユニバーサルな敵攻撃を発生させる可能性について検討する。
提案手法は, エッジ側の重要な特徴を活用することで, 未知のクラウド部分において, 効果的な誤予測を誘導できることを示唆する。
ImageNetの結果は、未知のクラウド部分に対する強力な攻撃伝達性を示している。
論文 参考訳(メタデータ) (2024-11-15T11:06:24Z) - The Communication-Friendly Privacy-Preserving Machine Learning against Malicious Adversaries [14.232901861974819]
プライバシー保護機械学習(PPML)は、機密情報を保護しながらセキュアなデータ分析を可能にする革新的なアプローチである。
セキュアな線形関数評価のための効率的なプロトコルを導入する。
我々は、このプロトコルを拡張して、線形層と非線形層を扱い、幅広い機械学習モデルとの互換性を確保する。
論文 参考訳(メタデータ) (2024-11-14T08:55:14Z) - Secure Deep Learning-based Distributed Intelligence on Pocket-sized
Drones [75.80952211739185]
パームサイズのナノドロンはエッジノードの魅力的なクラスであるが、その限られた計算資源は大規模なディープラーニングモデルの実行を妨げている。
エッジフォッグ計算のパラダイムを採用することで、計算の一部をフォグにオフロードすることができるが、フォグノードや通信リンクが信頼できない場合、セキュリティ上の懸念が生じる。
ナノドローン上でランダムなサブネットワークを冗長に実行することにより,霧の計算を検証する分散エッジフォッグ実行方式を提案する。
論文 参考訳(メタデータ) (2023-07-04T08:29:41Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Deploying Convolutional Networks on Untrusted Platforms Using 2D
Holographic Reduced Representations [33.26156710843837]
我々は、攻撃に対する堅牢性を実証的に示す擬似暗号化スタイルの防御を備えたニューラルネットワークを作成する。
ホログラフィック・シンボリック・リダクテッド・表現(HRR)を活用することで,攻撃に対する堅牢性を実証的に示す擬似暗号化方式のニューラルネットワークを構築する。
論文 参考訳(メタデータ) (2022-06-13T03:31:39Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - PRICURE: Privacy-Preserving Collaborative Inference in a Multi-Party
Setting [3.822543555265593]
本稿では,セキュアなマルチパーティ計算とディファレンシャルプライバシの補完的強みを組み合わせたシステムpricureを提案する。
PRICUREは、複数のモデルオーナー間のプライバシー保護共同予測を可能にします。
ベンチマーク医療画像分類データセットを含む4つのデータセットのニューラルネットワーク上でPRICUREを評価する。
論文 参考訳(メタデータ) (2021-02-19T05:55:53Z) - POSEIDON: Privacy-Preserving Federated Neural Network Learning [8.103262600715864]
POSEIDONは、プライバシ保護ニューラルネットワークトレーニングの世界で、最初のタイプのものだ。
トレーニングデータ、モデル、評価データの機密性を維持するために、マルチパーティの格子ベースの暗号を用いる。
MNISTデータセットに784の特徴と60Kのサンプルを2時間以内で10のパーティに分散させた3層ニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-09-01T11:06:31Z) - Industrial Scale Privacy Preserving Deep Neural Network [23.690146141150407]
本稿では,産業規模のプライバシ保護型ニューラルネットワーク学習パラダイムを提案する。
実世界の不正検出データセットと金融危機予測データセットについて実験を行った。
論文 参考訳(メタデータ) (2020-03-11T10:15:37Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。