論文の概要: TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations
- arxiv url: http://arxiv.org/abs/2005.11480v7
- Date: Tue, 25 Aug 2020 01:36:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 03:28:39.177299
- Title: TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations
- Title(参考訳): TIPRDC:匿名中間表現を用いたディープラーニングのためのタスク非依存のプライバシ参照データクラウドソーシングフレームワーク
- Authors: Ang Li, Yixiao Duan, Huanrui Yang, Yiran Chen, Jianlei Yang
- Abstract要約: 本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
- 参考スコア(独自算出の注目度): 49.20701800683092
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of deep learning partially benefits from the availability of
various large-scale datasets. These datasets are often crowdsourced from
individual users and contain private information like gender, age, etc. The
emerging privacy concerns from users on data sharing hinder the generation or
use of crowdsourcing datasets and lead to hunger of training data for new deep
learning applications. One na\"{\i}ve solution is to pre-process the raw data
to extract features at the user-side, and then only the extracted features will
be sent to the data collector. Unfortunately, attackers can still exploit these
extracted features to train an adversary classifier to infer private
attributes. Some prior arts leveraged game theory to protect private
attributes. However, these defenses are designed for known primary learning
tasks, the extracted features work poorly for unknown learning tasks. To tackle
the case where the learning task may be unknown or changing, we present TIPRDC,
a task-independent privacy-respecting data crowdsourcing framework with
anonymized intermediate representation. The goal of this framework is to learn
a feature extractor that can hide the privacy information from the intermediate
representations; while maximally retaining the original information embedded in
the raw data for the data collector to accomplish unknown learning tasks. We
design a hybrid training method to learn the anonymized intermediate
representation: (1) an adversarial training process for hiding private
information from features; (2) maximally retain original information using a
neural-network-based mutual information estimator.
- Abstract(参考訳): ディープラーニングの成功は、さまざまな大規模データセットの可用性から部分的に恩恵を受けている。
これらのデータセットは個々のユーザーからクラウドソースされることが多く、性別や年齢などのプライベート情報を含んでいる。
データの共有に関するユーザからの新たなプライバシー上の懸念は、クラウドソーシングデータセットの生成や使用を妨げ、新たなディープラーニングアプリケーションのためのトレーニングデータの飢えにつながる。
na\"{\i}veのソリューションのひとつは、生データを前処理してユーザ側で機能を抽出し、抽出した機能のみをデータコレクタに送信する、というものだ。
残念ながら、攻撃者はこれらの抽出された機能を利用して、プライベート属性を推論するために敵の分類器を訓練することができる。
一部の先行芸術は、私的属性を保護するためにゲーム理論を利用した。
しかし、これらの防御は既知の初等学習タスクのために設計されており、抽出された機能は未知の学習タスクでは役に立たない。
学習課題の未知や変化に対処するため,匿名化中間表現を用いたタスク非依存のプライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
匿名化中間表現を学習するためのハイブリッド学習法として,(1)プライベート情報を特徴から隠蔽する敵対的訓練プロセス,(2)ニューラルネットワークを用いた相互情報推定器を用いたオリジナル情報を最大に保持する手法を設計した。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Free Lunch for Privacy Preserving Distributed Graph Learning [1.8292714902548342]
分散グラフ学習とグラフベース機械学習のための新しいプライバシ参照フレームワークを提案する。
本フレームワークは,生データの本来の構造特性を保ちながら,実際の特徴を必要とせずに,特徴と距離を学習することを目的としている。
論文 参考訳(メタデータ) (2023-05-18T10:41:21Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - Differentially Private Language Models for Secure Data Sharing [19.918137395199224]
本稿では,生成言語モデルを個別に学習し,その結果を抽出する方法について述べる。
自然言語のプロンプトと新しいプロンプトミスマッチの損失を用いることで、高度に正確で流動的なテキストデータセットを作成できる。
我々は、我々の合成データセットが元のデータから情報を漏らさず、言語質が高いことを示す徹底的な実験を行う。
論文 参考訳(メタデータ) (2022-10-25T11:12:56Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z) - Privacy Adversarial Network: Representation Learning for Mobile Data
Privacy [33.75500773909694]
モバイルユーザのためのクラウドベースのインテリジェントサービスの増加は、プロバイダに送信するユーザデータを要求している。
以前の作業では、例えばノイズを追加して識別情報を削除したり、匿名化された特徴などのデータから抽出された表現を送信したりするといった、データの難読化が行われていた。
私たちは、敵対的な学習を活用して、プライバシとユーティリティのバランスを改善する。
論文 参考訳(メタデータ) (2020-06-08T09:42:04Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。