論文の概要: Privacy Adversarial Network: Representation Learning for Mobile Data
Privacy
- arxiv url: http://arxiv.org/abs/2006.06535v1
- Date: Mon, 8 Jun 2020 09:42:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 01:27:40.430333
- Title: Privacy Adversarial Network: Representation Learning for Mobile Data
Privacy
- Title(参考訳): Privacy Adversarial Network: モバイルデータプライバシのための表現学習
- Authors: Sicong Liu, Junzhao Du, Anshumali Shrivastava, Lin Zhong
- Abstract要約: モバイルユーザのためのクラウドベースのインテリジェントサービスの増加は、プロバイダに送信するユーザデータを要求している。
以前の作業では、例えばノイズを追加して識別情報を削除したり、匿名化された特徴などのデータから抽出された表現を送信したりするといった、データの難読化が行われていた。
私たちは、敵対的な学習を活用して、プライバシとユーティリティのバランスを改善する。
- 参考スコア(独自算出の注目度): 33.75500773909694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The remarkable success of machine learning has fostered a growing number of
cloud-based intelligent services for mobile users. Such a service requires a
user to send data, e.g. image, voice and video, to the provider, which presents
a serious challenge to user privacy. To address this, prior works either
obfuscate the data, e.g. add noise and remove identity information, or send
representations extracted from the data, e.g. anonymized features. They
struggle to balance between the service utility and data privacy because
obfuscated data reduces utility and extracted representation may still reveal
sensitive information.
This work departs from prior works in methodology: we leverage adversarial
learning to a better balance between privacy and utility. We design a
\textit{representation encoder} that generates the feature representations to
optimize against the privacy disclosure risk of sensitive information (a
measure of privacy) by the \textit{privacy adversaries}, and concurrently
optimize with the task inference accuracy (a measure of utility) by the
\textit{utility discriminator}. The result is the privacy adversarial network
(\systemname), a novel deep model with the new training algorithm, that can
automatically learn representations from the raw data.
Intuitively, PAN adversarially forces the extracted representations to only
convey the information required by the target task. Surprisingly, this
constitutes an implicit regularization that actually improves task accuracy. As
a result, PAN achieves better utility and better privacy at the same time! We
report extensive experiments on six popular datasets and demonstrate the
superiority of \systemname compared with alternative methods reported in prior
work.
- Abstract(参考訳): 機械学習の驚くべき成功により、モバイルユーザー向けのクラウドベースのインテリジェントサービスが増えている。
このようなサービスでは、画像、音声、ビデオなどのデータをプロバイダに送信する必要があるため、ユーザのプライバシに深刻な課題がある。
これに対処するために、プリエントワークは、例えばノイズの追加やid情報の削除といったデータを難読化するか、データから抽出された表現、例えば匿名化特徴を送信します。
難読化されたデータはユーティリティを減らし、抽出された表現が機密情報を明らかにするため、サービスユーティリティとデータのプライバシのバランスを取るのに苦労する。
私たちは、プライバシとユーティリティのバランスを改善するために、敵対的学習を活用しています。
我々は,機密情報(プライバシの尺度)のプライバシー開示リスクに対して, \textit{privacy adversaries} によって最適化する特徴表現を生成する \textit{representation encoder} を設計し, \textit{utility discriminator} によるタスク推論精度(ユーティリティの尺度)と同時最適化する。
その結果、新たなトレーニングアルゴリズムを備えた、新しいディープラーニングモデルであるprivacy adversarial network(\systemname)が、生データから表現を自動的に学習する。
直感的には、PANは抽出した表現に目標タスクに必要な情報のみを伝えるように強制する。
驚くべきことに、これは実際にタスクの正確性を改善する暗黙の正規化を構成する。
その結果、panはより良いユーティリティとより良いプライバシを同時に達成するのです!
6つの一般的なデータセットに関する広範な実験を報告し,先行研究で報告された代替手法と比較して, \systemname が優れていることを示す。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Efficient and Privacy Preserving Group Signature for Federated Learning [2.121963121603413]
Federated Learning(FL)は、ユーザデータのプライバシに対する脅威を軽減することを目的とした機械学習(ML)テクニックである。
本稿では,グループ署名に基づくFLの効率的かつプライバシ保護プロトコルを提案する。
論文 参考訳(メタデータ) (2022-07-12T04:12:10Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Privacy-Utility Trades in Crowdsourced Signal Map Obfuscation [20.58763760239068]
クラウドソースセルラー信号強度測定は、ネットワーク性能を改善するために信号マップを生成するために使用できる。
我々は、データがモバイルデバイスを離れる前に、そのようなデータを難読化することを検討する。
評価結果は,多種多様な実世界の信号マップデータセットに基づいて,適切なプライバシとユーティリティを同時に実現可能であることを示す。
論文 参考訳(メタデータ) (2022-01-13T03:46:22Z) - Adversarial representation learning for synthetic replacement of private
attributes [0.7619404259039281]
第1ステップでは機密情報を除去し,第2ステップではこの情報を独立したランダムサンプルに置き換える,という2つのステップを含む,データ民営化のための新しいアプローチを提案する。
本手法は, より強い敵を騙すようにモデルを訓練することで, 強いプライバシを確保するために, 敵対表現学習を基盤としている。
論文 参考訳(メタデータ) (2020-06-14T22:07:19Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z) - Differentially Private Deep Learning with Smooth Sensitivity [144.31324628007403]
プライバシーに関する懸念を、差分プライバシーのレンズを通して研究する。
このフレームワークでは、モデルのトレーニングに使用されるデータの詳細が曖昧になるようにモデルを摂動することで、一般的にプライバシー保証が得られます。
過去の研究で使われた最も重要なテクニックの1つは、教師モデルのアンサンブルであり、ノイズの多い投票手順に基づいて生徒に情報を返す。
本研究では,イミュータブルノイズArgMaxと呼ばれるスムーズな感性を有する新しい投票機構を提案する。これは,ある条件下では,学生に伝達される有用な情報に影響を与えることなく,教師から非常に大きなランダムノイズを発生させることができる。
論文 参考訳(メタデータ) (2020-03-01T15:38:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。