論文の概要: Decouple-and-Sample: Protecting sensitive information in task agnostic
data release
- arxiv url: http://arxiv.org/abs/2203.13204v1
- Date: Thu, 17 Mar 2022 19:15:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-27 07:11:27.357005
- Title: Decouple-and-Sample: Protecting sensitive information in task agnostic
data release
- Title(参考訳): Deouple-and-Sample:タスク非依存データリリースにおける機密情報の保護
- Authors: Abhishek Singh, Ethan Garza, Ayush Chopra, Praneeth Vepakomma, Vivek
Sharma, Ramesh Raskar
- Abstract要約: sanitizerはセキュアでタスクに依存しないデータリリースのためのフレームワークである。
機密情報をプライベートに合成できれば、より優れたプライバシーとユーティリティのトレードオフが達成できることを示す。
- 参考スコア(独自算出の注目度): 17.398889291769986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose sanitizer, a framework for secure and task-agnostic data release.
While releasing datasets continues to make a big impact in various applications
of computer vision, its impact is mostly realized when data sharing is not
inhibited by privacy concerns. We alleviate these concerns by sanitizing
datasets in a two-stage process. First, we introduce a global decoupling stage
for decomposing raw data into sensitive and non-sensitive latent
representations. Secondly, we design a local sampling stage to synthetically
generate sensitive information with differential privacy and merge it with
non-sensitive latent features to create a useful representation while
preserving the privacy. This newly formed latent information is a task-agnostic
representation of the original dataset with anonymized sensitive information.
While most algorithms sanitize data in a task-dependent manner, a few
task-agnostic sanitization techniques sanitize data by censoring sensitive
information. In this work, we show that a better privacy-utility trade-off is
achieved if sensitive information can be synthesized privately. We validate the
effectiveness of the sanitizer by outperforming state-of-the-art baselines on
the existing benchmark tasks and demonstrating tasks that are not possible
using existing techniques.
- Abstract(参考訳): 安全かつタスクに依存しないデータリリースのためのフレームワークであるsaitizerを提案する。
データセットのリリースはコンピュータビジョンのさまざまなアプリケーションに大きな影響を与え続けているが、その影響は主に、プライバシの懸念によってデータ共有が阻害されない場合に実現されている。
2段階のプロセスでデータセットを衛生化することで、これらの懸念を緩和します。
まず、生データをセンシティブかつ非センシティブな潜在表現に分解するグローバルデカップリングステージを導入する。
第2に,局所的なサンプリングステージを設計して,差分プライバシーを持つ機密情報を生成し,非敏感な潜在機能とマージして,プライバシを維持しながら有用な表現を作成する。
この新しく形成された潜伏情報は、匿名化された機密情報を持つ元のデータセットのタスクに依存しない表現である。
ほとんどのアルゴリズムはタスクに依存した方法でデータを衛生化するが、いくつかのタスクに依存しない衛生技術は機密情報を検閲することでデータを衛生化する。
本研究では,機密情報をプライベートに合成できれば,より優れたプライバシー利用トレードオフが達成できることを示す。
既存のベンチマークタスクで最先端のベースラインを上回り,既存の手法では不可能であるタスクを実証することにより,サニタイザの有効性を検証する。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Mitigating the Privacy Issues in Retrieval-Augmented Generation (RAG) via Pure Synthetic Data [51.41288763521186]
Retrieval-augmented Generation (RAG)は、外部知識ソースから取得した関連情報を統合することにより、言語モデルの出力を強化する。
RAGシステムは、プライベートデータを取得する際に深刻なプライバシーリスクに直面する可能性がある。
検索データに対するプライバシー保護の代替として,合成データを用いる方法を提案する。
論文 参考訳(メタデータ) (2024-06-20T22:53:09Z) - MaSS: Multi-attribute Selective Suppression for Utility-preserving Data Transformation from an Information-theoretic Perspective [10.009178591853058]
本稿では,このユーティリティ保護プライバシ保護問題に対する情報理論の形式的定義を提案する。
我々は、ターゲットデータセットからセンシティブな属性を抑えることができるデータ駆動学習可能なデータ変換フレームワークを設計する。
その結果,様々な構成下での手法の有効性と一般化性を示した。
論文 参考訳(メタデータ) (2024-05-23T18:35:46Z) - Disguise without Disruption: Utility-Preserving Face De-Identification [40.484745636190034]
本研究では,修正データの利用性を確保しつつ,顔画像をシームレスに識別する新しいアルゴリズムであるDisguiseを紹介する。
本手法は, 難読化と非可逆性を最大化するために, 変分機構を用いて生成した合成物を用いて, 描写されたアイデンティティを抽出し置換することを含む。
提案手法を複数のデータセットを用いて広範に評価し,様々な下流タスクにおける従来の手法と比較して,高い非識別率と一貫性を示す。
論文 参考訳(メタデータ) (2023-03-23T13:50:46Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - Adversarial representation learning for synthetic replacement of private
attributes [0.7619404259039281]
第1ステップでは機密情報を除去し,第2ステップではこの情報を独立したランダムサンプルに置き換える,という2つのステップを含む,データ民営化のための新しいアプローチを提案する。
本手法は, より強い敵を騙すようにモデルを訓練することで, 強いプライバシを確保するために, 敵対表現学習を基盤としている。
論文 参考訳(メタデータ) (2020-06-14T22:07:19Z) - Privacy Adversarial Network: Representation Learning for Mobile Data
Privacy [33.75500773909694]
モバイルユーザのためのクラウドベースのインテリジェントサービスの増加は、プロバイダに送信するユーザデータを要求している。
以前の作業では、例えばノイズを追加して識別情報を削除したり、匿名化された特徴などのデータから抽出された表現を送信したりするといった、データの難読化が行われていた。
私たちは、敵対的な学習を活用して、プライバシとユーティリティのバランスを改善する。
論文 参考訳(メタデータ) (2020-06-08T09:42:04Z) - PrivGen: Preserving Privacy of Sequences Through Data Generation [14.579475552088688]
シークエンシャルデータは、研究の基盤として機能し、プロセスの改善につながる可能性がある。
このようなデータへのアクセスと利用は、通常、ユーザーのプライバシーを侵害する懸念のために制限されるか、まったく許可されない。
そこで我々はPrivGenを提案する。PrivGenは、ソースデータのパターンと特徴を保守するデータを生成する革新的な方法である。
論文 参考訳(メタデータ) (2020-02-23T05:43:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。