論文の概要: Efficient Private Machine Learning by Differentiable Random
Transformations
- arxiv url: http://arxiv.org/abs/2008.07758v1
- Date: Tue, 18 Aug 2020 06:17:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 21:13:44.026826
- Title: Efficient Private Machine Learning by Differentiable Random
Transformations
- Title(参考訳): 微分可能なランダム変換による効率的なプライベート機械学習
- Authors: Fei Zheng
- Abstract要約: 機械学習タスクにおける大量のデータに適したプライバシー定義を提案しました。
ランダムな変換と算術的共有を組み合わせることで、私は高効率で低コストでプライベート機械学習のためのフレームワークを設計しました。
- 参考スコア(独自算出の注目度): 5.33024001730262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing demands for privacy protection, many privacy-preserving
machine learning systems were proposed in recent years. However, most of them
cannot be put into production due to their slow training and inference speed
caused by the heavy cost of homomorphic encryption and secure multiparty
computation(MPC) methods. To circumvent this, I proposed a privacy definition
which is suitable for large amount of data in machine learning tasks. Based on
that, I showed that random transformations like linear transformation and
random permutation can well protect privacy. Merging random transformations and
arithmetic sharing together, I designed a framework for private machine
learning with high efficiency and low computation cost.
- Abstract(参考訳): 近年、プライバシー保護の要求が高まり、多くのプライバシー保護機械学習システムが提案されている。
しかし、そのほとんどは、ホモモルフィック暗号化とセキュアなマルチパーティ計算(MPC)手法の重いコストによる訓練の遅さと推論速度のため、本番環境に投入できない。
これを回避するために、機械学習タスクにおける大量のデータに適したプライバシー定義を提案しました。
それに基づいて、線形変換やランダム置換のようなランダム変換がプライバシーを保護できることを示した。
ランダム変換と算術共有を融合して、高効率で低計算コストのプライベート機械学習のためのフレームワークを設計しました。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Scalable Differential Privacy Mechanisms for Real-Time Machine Learning Applications [0.0]
大規模言語モデル(LLM)は、ユーザのプライバシ保護が最重要であるリアルタイム機械学習アプリケーションに、ますます統合されている。
従来の差分プライバシーメカニズムは、プライバシーと精度のバランスをとるのに苦労することが多い。
当社では,堅牢なプライバシ保証とモデルパフォーマンスの向上を重視した,リアルタイム機械学習に適したフレームワークであるScalable Differential Privacy(SDP)を紹介した。
論文 参考訳(メタデータ) (2024-09-16T20:52:04Z) - When approximate design for fast homomorphic computation provides
differential privacy guarantees [0.08399688944263842]
差分プライバシー(DP)と暗号プリミティブは、プライバシー攻撃に対する一般的な対策である。
本稿では,argmax演算子に対する確率近似アルゴリズム ShiELD を設計する。
たとえShielDが他のアプリケーションを持つことができたとしても、私たちは1つの設定に集中し、SPEEDコラボレーティブトレーニングフレームワークにシームレスに統合します。
論文 参考訳(メタデータ) (2023-04-06T09:38:01Z) - Privacy-Preserving Chaotic Extreme Learning Machine with Fully
Homomorphic Encryption [5.010425616264462]
完全同型暗号を用いたカオス・エクストリーム学習マシンとその暗号化形式を提案する。
提案手法は,ほとんどのデータセットにおいて,従来のエクストリーム学習マシンとよくあるいは類似している。
論文 参考訳(メタデータ) (2022-08-04T11:29:52Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - MORSE-STF: A Privacy Preserving Computation System [12.875477499515158]
MPCに基づくプライバシー保護機械学習フレームワークSecure-TFを提案する。
我々のフレームワークは、ロジスティック回帰、完全接続型ニューラルネットワーク、畳み込み型ニューラルネットワークなど、広く使われている機械学習モデルをサポートすることができる。
論文 参考訳(メタデータ) (2021-09-24T03:42:46Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。