論文の概要: Towards Secure and Practical Machine Learning via Secret Sharing and
Random Permutation
- arxiv url: http://arxiv.org/abs/2108.07463v2
- Date: Wed, 18 Aug 2021 08:05:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-19 12:00:30.491306
- Title: Towards Secure and Practical Machine Learning via Secret Sharing and
Random Permutation
- Title(参考訳): 秘密共有とランダム置換によるセキュアかつ実践的な機械学習を目指して
- Authors: Fei Zheng, Chaochao Chen, Xiaolin Zheng
- Abstract要約: ランダムな置換と算術的秘密共有を組み合わせたプライバシー保護機械学習フレームワークを構築した。
提案手法は,最先端の暗号手法に比べて最大6倍高速で,ネットワークトラフィックを最大85%削減する。
- 参考スコア(独自算出の注目度): 12.181314740980241
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the increasing demands for privacy protection, privacy-preserving
machine learning has been drawing much attention in both academia and industry.
However, most existing methods have their limitations in practical
applications. On the one hand, although most cryptographic methods are provable
secure, they bring heavy computation and communication. On the other hand, the
security of many relatively efficient private methods (e.g., federated learning
and split learning) is being questioned, since they are non-provable secure.
Inspired by previous work on privacy-preserving machine learning, we build a
privacy-preserving machine learning framework by combining random permutation
and arithmetic secret sharing via our compute-after-permutation technique.
Since our method reduces the cost for element-wise function computation, it is
more efficient than existing cryptographic methods. Moreover, by adopting
distance correlation as a metric for privacy leakage, we demonstrate that our
method is more secure than previous non-provable secure methods. Overall, our
proposal achieves a good balance between security and efficiency. Experimental
results show that our method not only is up to 6x faster and reduces up to 85%
network traffic compared with state-of-the-art cryptographic methods, but also
leaks less privacy during the training process compared with non-provable
secure methods.
- Abstract(参考訳): プライバシー保護の需要が高まる中、プライバシー保護機械学習は学術と産業の両方で注目を集めている。
しかし、既存のほとんどの手法は実用上限界がある。
一方、ほとんどの暗号手法は安全を証明できるが、それらは重い計算と通信をもたらす。
一方で、比較的効率的なプライベートメソッド(フェデレーション学習やスプリット学習など)のセキュリティには、証明不能な安全性が疑問視されている。
従来のプライバシ保存機械学習の研究に触発されて、ランダムな置換と算術的な秘密の共有を組み合わせた、プライバシ保存機械学習フレームワークを構築しました。
本手法は,要素関数計算のコストを削減するため,既存の暗号手法よりも効率がよい。
さらに,プライバシリークの指標として距離相関を採用することにより,従来の非提供型セキュア手法よりも安全性が高いことを示す。
全体として、我々の提案はセキュリティと効率のバランスが良い。
実験結果から,本手法は,最先端の暗号手法に比べて最大6倍高速で,ネットワークトラフィックを最大85%削減するだけでなく,未証明のセキュア手法に比べて,トレーニングプロセス中のプライバシを低くすることがわかった。
関連論文リスト
- Federated Cubic Regularized Newton Learning with Sparsification-amplified Differential Privacy [10.396575601912673]
そこで我々は,DP-FCRN (differially Private Federated Cubic Regularized Newton) というフェデレーション学習アルゴリズムを導入する。
2次手法を活用することにより,本アルゴリズムは1次手法に比べてイテレーションの複雑さを小さくする。
また、プライバシーを確保するために、局所的な計算中にノイズの摂動も取り入れる。
論文 参考訳(メタデータ) (2024-08-08T08:48:54Z) - HETAL: Efficient Privacy-preserving Transfer Learning with Homomorphic Encryption [4.164336621664897]
HETALは、効率的な同型暗号化に基づく転送学習アルゴリズムである。
本稿では,従来の手法よりも1.8~323倍高速な暗号化行列乗算アルゴリズムを提案する。
実験では、合計訓練時間は567-3442秒であり、1時間未満である。
論文 参考訳(メタデータ) (2024-03-21T03:47:26Z) - ByzSecAgg: A Byzantine-Resistant Secure Aggregation Scheme for Federated
Learning Based on Coded Computing and Vector Commitment [90.60126724503662]
ByzSecAggは、フェデレートラーニングのための効率的なセキュアアグリゲーションスキームである。
ByzSecAggは、ビザンツの攻撃やプライバシーの漏洩から保護されている。
論文 参考訳(メタデータ) (2023-02-20T11:15:18Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - Perfectly Secure Steganography Using Minimum Entropy Coupling [60.154855689780796]
カチン1998のステガノグラフィー情報理論モデルでは, ステガノグラフィーの術式は完全に安全であることが示されている。
また, 完全セキュアな手順の中で, 最小エントロピー結合によって誘導される場合に限, 情報スループットが最大になることを示す。
論文 参考訳(メタデータ) (2022-10-24T17:40:07Z) - A Pixel-based Encryption Method for Privacy-Preserving Deep Learning
Models [5.749044590090683]
本稿では,効率的な画素ベースの知覚暗号化手法を提案する。
この方法は、原画像の固有の特性を保ちながら、必要なレベルのセキュリティを提供する。
これにより、暗号化ドメイン内のディープラーニング(DL)アプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-03-31T03:42:11Z) - Privacy-preserving Decentralized Aggregation for Federated Learning [3.9323226496740733]
フェデレーション学習は、複数のリージョンにまたがる分散データを学習するための有望なフレームワークである。
我々は,連合学習のためのプライバシ保存型分散集約プロトコルを開発した。
9 と 15 の分散サイトを持つベンチマークデータセットを用いて,画像分類と次単語予測のアルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2020-12-13T23:45:42Z) - Efficient Sparse Secure Aggregation for Federated Learning [0.20052993723676896]
我々は,圧縮に基づくフェデレーション手法を付加的な秘密共有に適用し,効率的なセキュアなアグリゲーションプロトコルを実現する。
悪意のある敵に対するプライバシーの証明と、半正直な設定でその正しさを証明します。
セキュアアグリゲーションに関する従来の研究と比較すると、我々のプロトコルは通信コストが低く、同じ精度で適用可能なコストがかかる。
論文 参考訳(メタデータ) (2020-07-29T14:28:30Z) - Secure Byzantine-Robust Machine Learning [61.03711813598128]
本稿では,Byzantine-robustnessとByzantine-robustnessの両方を提供するセキュアな2サーバプロトコルを提案する。
さらに、このプロトコルは通信効率が高く、フォールトトレラントであり、局所的な差分プライバシーを享受する。
論文 参考訳(メタデータ) (2020-06-08T16:55:15Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z) - An Accuracy-Lossless Perturbation Method for Defending Privacy Attacks
in Federated Learning [82.80836918594231]
フェデレーション学習は、生データではなく、局所的な勾配やパラメータを交換することで、トレーニングデータのプライバシを改善する。
敵は、局所勾配とパラメータを利用して、再構築とメンバーシップ推論攻撃を起動することで、局所的なトレーニングデータを取得することができる。
このようなプライバシ攻撃を防御するために、多くのノイズ摂動法が広く設計されている。
論文 参考訳(メタデータ) (2020-02-23T06:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。