論文の概要: PrivEdge: From Local to Distributed Private Training and Prediction
- arxiv url: http://arxiv.org/abs/2004.05574v1
- Date: Sun, 12 Apr 2020 09:26:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 05:41:25.317098
- Title: PrivEdge: From Local to Distributed Private Training and Prediction
- Title(参考訳): privedge: ローカルから分散したプライベートトレーニングと予測
- Authors: Ali Shahin Shamsabadi, Adria Gascon, Hamed Haddadi and Andrea
Cavallaro
- Abstract要約: PrivEdgeはプライバシ保護機械学習(ML)のためのテクニック
PrivEdgeは、トレーニングのためにデータを提供するユーザのプライバシと、予測サービスを使用するユーザのプライバシを保護する。
PrivEdgeは、プライバシの保存や、プライベートイメージと非プライベートイメージの区別において、高い精度とリコールを持っていることを示す。
- 参考スコア(独自算出の注目度): 43.02041269239928
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning as a Service (MLaaS) operators provide model training and
prediction on the cloud. MLaaS applications often rely on centralised
collection and aggregation of user data, which could lead to significant
privacy concerns when dealing with sensitive personal data. To address this
problem, we propose PrivEdge, a technique for privacy-preserving MLaaS that
safeguards the privacy of users who provide their data for training, as well as
users who use the prediction service. With PrivEdge, each user independently
uses their private data to locally train a one-class reconstructive adversarial
network that succinctly represents their training data. As sending the model
parameters to the service provider in the clear would reveal private
information, PrivEdge secret-shares the parameters among two non-colluding
MLaaS providers, to then provide cryptographically private prediction services
through secure multi-party computation techniques. We quantify the benefits of
PrivEdge and compare its performance with state-of-the-art centralised
architectures on three privacy-sensitive image-based tasks: individual
identification, writer identification, and handwritten letter recognition.
Experimental results show that PrivEdge has high precision and recall in
preserving privacy, as well as in distinguishing between private and
non-private images. Moreover, we show the robustness of PrivEdge to image
compression and biased training data. The source code is available at
https://github.com/smartcameras/PrivEdge.
- Abstract(参考訳): 機械学習・アズ・ア・サービス(MLaaS)オペレータは、クラウド上でモデルトレーニングと予測を提供する。
MLaaSアプリケーションは、ユーザデータの集中的な収集と集約に依存することが多いため、機密性の高い個人情報を扱う際には、重大なプライバシー上の懸念が生じる可能性がある。
この問題に対処するために,トレーニング用にデータを提供するユーザのプライバシを保護するとともに,予測サービスを使用するユーザのプライバシ保護を行う,プライバシ保護型MLaaSのテクニックであるPrivEdgeを提案する。
PrivEdgeでは、各ユーザが独自にプライベートデータを使用して、トレーニングデータを簡潔に表現するワンクラスの再構成敵ネットワークをローカルにトレーニングする。
明確な方法でモデルパラメータをサービスプロバイダに送ると、プライベート情報が明らかになるため、PrivEdgeは2つの非凝固MLaaSプロバイダのパラメータを秘密に共有し、セキュアなマルチパーティ計算技術を通じて暗号化的にプライベートな予測サービスを提供する。
privedgeのメリットを定量化し,そのパフォーマンスを,プライバシに敏感な3つのイメージベースのタスク – 個人識別,ライタ識別,手書き文字認識 – において,最先端の集中型アーキテクチャと比較する。
実験の結果,プライバシの保護やプライベート画像と非プライベート画像の区別において,privedgeの精度とリコールが向上した。
さらに、画像圧縮とバイアス付きトレーニングデータに対するPrivEdgeの堅牢性を示す。
ソースコードはhttps://github.com/smartcameras/PrivEdgeで入手できる。
関連論文リスト
- Differentially Private Model-Based Offline Reinforcement Learning [51.1231068185106]
DP-MORLは差分プライバシーを保証するアルゴリズムである。
環境のプライベートモデルは、まずオフラインデータから学習される。
次に、モデルベースのポリシー最適化を使用して、プライベートモデルからポリシーを導出します。
論文 参考訳(メタデータ) (2024-02-08T10:05:11Z) - Personalized Differential Privacy for Ridge Regression [3.4751583941317166]
我々はPDP-OP(Personalized-DP Output Perturbation Method)を導入し、データポイントごとのプライバシレベルに応じてリッジ回帰モデルのトレーニングを可能にする。
我々は、PDP-OPの厳密なプライバシー証明と、結果モデルの正確性を保証する。
我々はPDP-OPがJorgensenらのパーソナライズされたプライバシー技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-30T16:00:14Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt
Engineer [60.44898240755332]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z) - Unlocking Accuracy and Fairness in Differentially Private Image
Classification [43.53494043189235]
差別化プライバシ(DP)は、プライバシ保護トレーニングのための金の標準フレームワークと考えられている。
DPを微調整した事前学習基礎モデルでは,非私的分類器と同様の精度が得られることを示す。
論文 参考訳(メタデータ) (2023-08-21T17:42:33Z) - Considerations for Differentially Private Learning with Large-Scale
Public Pretraining [58.75893136929649]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z) - Federated $f$-Differential Privacy [19.499120576896228]
フェデレートラーニング(Federated Learning, FL)とは、クライアントが繰り返し情報を共有することによってモデルを学ぶ訓練パラダイムである。
フェデレーション設定に特化した新しい概念である、フェデレーション$f$-differenceプライバシを紹介します。
そこで我々は,最先端flアルゴリズムの大規模ファミリーに対応する汎用的federated learningフレームワークprifedsyncを提案する。
論文 参考訳(メタデータ) (2021-02-22T16:28:21Z) - Privacy Adversarial Network: Representation Learning for Mobile Data
Privacy [33.75500773909694]
モバイルユーザのためのクラウドベースのインテリジェントサービスの増加は、プロバイダに送信するユーザデータを要求している。
以前の作業では、例えばノイズを追加して識別情報を削除したり、匿名化された特徴などのデータから抽出された表現を送信したりするといった、データの難読化が行われていた。
私たちは、敵対的な学習を活用して、プライバシとユーティリティのバランスを改善する。
論文 参考訳(メタデータ) (2020-06-08T09:42:04Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。