論文の概要: PrivEdge: From Local to Distributed Private Training and Prediction
- arxiv url: http://arxiv.org/abs/2004.05574v1
- Date: Sun, 12 Apr 2020 09:26:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 05:41:25.317098
- Title: PrivEdge: From Local to Distributed Private Training and Prediction
- Title(参考訳): privedge: ローカルから分散したプライベートトレーニングと予測
- Authors: Ali Shahin Shamsabadi, Adria Gascon, Hamed Haddadi and Andrea
Cavallaro
- Abstract要約: PrivEdgeはプライバシ保護機械学習(ML)のためのテクニック
PrivEdgeは、トレーニングのためにデータを提供するユーザのプライバシと、予測サービスを使用するユーザのプライバシを保護する。
PrivEdgeは、プライバシの保存や、プライベートイメージと非プライベートイメージの区別において、高い精度とリコールを持っていることを示す。
- 参考スコア(独自算出の注目度): 43.02041269239928
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning as a Service (MLaaS) operators provide model training and
prediction on the cloud. MLaaS applications often rely on centralised
collection and aggregation of user data, which could lead to significant
privacy concerns when dealing with sensitive personal data. To address this
problem, we propose PrivEdge, a technique for privacy-preserving MLaaS that
safeguards the privacy of users who provide their data for training, as well as
users who use the prediction service. With PrivEdge, each user independently
uses their private data to locally train a one-class reconstructive adversarial
network that succinctly represents their training data. As sending the model
parameters to the service provider in the clear would reveal private
information, PrivEdge secret-shares the parameters among two non-colluding
MLaaS providers, to then provide cryptographically private prediction services
through secure multi-party computation techniques. We quantify the benefits of
PrivEdge and compare its performance with state-of-the-art centralised
architectures on three privacy-sensitive image-based tasks: individual
identification, writer identification, and handwritten letter recognition.
Experimental results show that PrivEdge has high precision and recall in
preserving privacy, as well as in distinguishing between private and
non-private images. Moreover, we show the robustness of PrivEdge to image
compression and biased training data. The source code is available at
https://github.com/smartcameras/PrivEdge.
- Abstract(参考訳): 機械学習・アズ・ア・サービス(MLaaS)オペレータは、クラウド上でモデルトレーニングと予測を提供する。
MLaaSアプリケーションは、ユーザデータの集中的な収集と集約に依存することが多いため、機密性の高い個人情報を扱う際には、重大なプライバシー上の懸念が生じる可能性がある。
この問題に対処するために,トレーニング用にデータを提供するユーザのプライバシを保護するとともに,予測サービスを使用するユーザのプライバシ保護を行う,プライバシ保護型MLaaSのテクニックであるPrivEdgeを提案する。
PrivEdgeでは、各ユーザが独自にプライベートデータを使用して、トレーニングデータを簡潔に表現するワンクラスの再構成敵ネットワークをローカルにトレーニングする。
明確な方法でモデルパラメータをサービスプロバイダに送ると、プライベート情報が明らかになるため、PrivEdgeは2つの非凝固MLaaSプロバイダのパラメータを秘密に共有し、セキュアなマルチパーティ計算技術を通じて暗号化的にプライベートな予測サービスを提供する。
privedgeのメリットを定量化し,そのパフォーマンスを,プライバシに敏感な3つのイメージベースのタスク – 個人識別,ライタ識別,手書き文字認識 – において,最先端の集中型アーキテクチャと比較する。
実験の結果,プライバシの保護やプライベート画像と非プライベート画像の区別において,privedgeの精度とリコールが向上した。
さらに、画像圧縮とバイアス付きトレーニングデータに対するPrivEdgeの堅牢性を示す。
ソースコードはhttps://github.com/smartcameras/PrivEdgeで入手できる。
関連論文リスト
- FT-PrivacyScore: Personalized Privacy Scoring Service for Machine Learning Participation [4.772368796656325]
実際には、制御されたデータアクセスは、多くの産業や研究環境でデータプライバシを保護する主要な方法である。
我々は,FT-PrivacyScoreのプロトタイプを開発し,モデル微調整作業に参加する際のプライバシーリスクを効率よく定量的に推定できることを実証した。
論文 参考訳(メタデータ) (2024-10-30T02:41:26Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - PrivacyRestore: Privacy-Preserving Inference in Large Language Models via Privacy Removal and Restoration [18.11846784025521]
PrivacyRestoreは、推論中のユーザの入力のプライバシを保護するためのプラグイン・アンド・プレイ方式である。
プライバシストアの有効性を評価するために、医療ドメインと法律ドメインをカバーする3つのデータセットを作成します。
論文 参考訳(メタデータ) (2024-06-03T14:57:39Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt Engineer [57.04801796205638]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z) - Privacy Preserving Large Language Models: ChatGPT Case Study Based Vision and Framework [6.828884629694705]
本稿では,LLMのプライバシ生成モデルであるPrivChatGPTという概念モデルを提案する。
PrivChatGPTは、データキュレーション/前処理中にユーザのプライバシを保護し、プライベートコンテキストの保存と大規模データのプライベートトレーニングプロセスという2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-19T06:55:13Z) - Unlocking Accuracy and Fairness in Differentially Private Image
Classification [43.53494043189235]
差別化プライバシ(DP)は、プライバシ保護トレーニングのための金の標準フレームワークと考えられている。
DPを微調整した事前学習基礎モデルでは,非私的分類器と同様の精度が得られることを示す。
論文 参考訳(メタデータ) (2023-08-21T17:42:33Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。