論文の概要: MORSE-STF: A Privacy Preserving Computation System
- arxiv url: http://arxiv.org/abs/2109.11726v1
- Date: Fri, 24 Sep 2021 03:42:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-27 14:00:55.915253
- Title: MORSE-STF: A Privacy Preserving Computation System
- Title(参考訳): MORSE-STF:プライバシ保護計算システム
- Authors: Qizhi Zhang, Yuan Zhao, Lichun Li, JiaoFu Zhang, Qichao Zhang, Yashun
Zhou, Dong Yin, Sijun Tan, Shan Yin
- Abstract要約: MPCに基づくプライバシー保護機械学習フレームワークSecure-TFを提案する。
我々のフレームワークは、ロジスティック回帰、完全接続型ニューラルネットワーク、畳み込み型ニューラルネットワークなど、広く使われている機械学習モデルをサポートすることができる。
- 参考スコア(独自算出の注目度): 12.875477499515158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy-preserving machine learning has become a popular area of research due
to the increasing concern over data privacy. One way to achieve
privacy-preserving machine learning is to use secure multi-party computation,
where multiple distrusting parties can perform computations on data without
revealing the data itself. We present Secure-TF, a privacy-preserving machine
learning framework based on MPC. Our framework is able to support widely-used
machine learning models such as logistic regression, fully-connected neural
network, and convolutional neural network. We propose novel cryptographic
protocols that has lower round complexity and less communication for computing
sigmoid, ReLU, conv2D and there derivatives. All are central building blocks
for modern machine learning models. With our more efficient protocols, our
system is able to outperform previous state-of-the-art privacy-preserving
machine learning framework in the WAN setting.
- Abstract(参考訳): データプライバシに対する懸念が高まっているため、プライバシ保護機械学習は研究の一般的な領域となっている。
プライバシ保護機械学習を実現する方法の1つは、セキュアなマルチパーティ計算を使用することである。
MPCに基づくプライバシー保護機械学習フレームワークSecure-TFを提案する。
我々のフレームワークは、ロジスティック回帰、完全接続型ニューラルネットワーク、畳み込み型ニューラルネットワークなど、広く使われている機械学習モデルをサポートすることができる。
本稿では,sgmoid,relu,conv2d および there デリバティブの計算において,ラウンド複雑性が低く,通信も少ない新しい暗号プロトコルを提案する。
これらはすべて、現代の機械学習モデルのための中心的なビルディングブロックである。
我々のシステムは、より効率的なプロトコルにより、従来の最先端のプライバシー保護機械学習フレームワークをWAN設定で上回ることができる。
関連論文リスト
- Learning in the Dark: Privacy-Preserving Machine Learning using Function Approximation [1.8907108368038215]
Learning in the Darkは、暗号化された画像を高精度に分類できる、プライバシ保護機械学習モデルである。
暗号化データ上で直接計算を行うことで、高精度な予測を行うことができる。
論文 参考訳(メタデータ) (2023-09-15T06:45:58Z) - Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Privacy-Preserving Chaotic Extreme Learning Machine with Fully
Homomorphic Encryption [5.010425616264462]
完全同型暗号を用いたカオス・エクストリーム学習マシンとその暗号化形式を提案する。
提案手法は,ほとんどのデータセットにおいて,従来のエクストリーム学習マシンとよくあるいは類似している。
論文 参考訳(メタデータ) (2022-08-04T11:29:52Z) - CrypTen: Secure Multi-Party Computation Meets Machine Learning [25.21435023269728]
CrypTenは、現代の機械学習フレームワークに共通する抽象化を通じて、人気のあるセキュアなMPCプリミティブを公開するソフトウェアフレームワークである。
本稿では,CrypTenの設計とテキスト分類,音声認識,画像分類のための最先端モデルの性能評価を行う。
論文 参考訳(メタデータ) (2021-09-02T14:36:55Z) - TenSEAL: A Library for Encrypted Tensor Operations Using Homomorphic
Encryption [0.0]
モノモルフィック暗号化を用いたプライバシー保護機械学習のためのオープンソースライブラリTenSEALを紹介します。
我々は,半メガバイト以下の通信を用いて,暗号化畳み込みニューラルネットワークを1秒以内で評価可能であることを示す。
論文 参考訳(メタデータ) (2021-04-07T14:32:38Z) - Additively Homomorphical Encryption based Deep Neural Network for
Asymmetrically Collaborative Machine Learning [12.689643742151516]
機械学習の保存は、金融セクターにおけるさらなる適用を制限する制約を生み出す。
我々は、ある当事者がデータを所有するが、別の当事者がラベルのみを所有する新しい協調機械学習の実践的手法を提案する。
異なるデータセットに対する我々の実験は、精度のない安定したトレーニングだけでなく、100倍以上のスピードアップも示しています。
論文 参考訳(メタデータ) (2020-07-14T06:43:25Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。