論文の概要: Utility-aware Privacy-preserving Data Releasing
- arxiv url: http://arxiv.org/abs/2005.04369v1
- Date: Sat, 9 May 2020 05:32:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 06:43:25.694747
- Title: Utility-aware Privacy-preserving Data Releasing
- Title(参考訳): ユーティリティアウェアプライバシ保存データリリース
- Authors: Di Zhuang and J. Morris Chang
- Abstract要約: 本稿では2段階の摂動に基づくプライバシー保護データ公開フレームワークを提案する。
まず、特定の事前定義されたプライバシとユーティリティの問題がパブリックドメインデータから学習される。
そして、学習した知識を活用して、データ所有者のデータを民営化したデータに正確に摂動させます。
- 参考スコア(独自算出の注目度): 7.462336024223669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the big data era, more and more cloud-based data-driven applications are
developed that leverage individual data to provide certain valuable services
(the utilities). On the other hand, since the same set of individual data could
be utilized to infer the individual's certain sensitive information, it creates
new channels to snoop the individual's privacy. Hence it is of great importance
to develop techniques that enable the data owners to release privatized data,
that can still be utilized for certain premised intended purpose. Existing data
releasing approaches, however, are either privacy-emphasized (no consideration
on utility) or utility-driven (no guarantees on privacy). In this work, we
propose a two-step perturbation-based utility-aware privacy-preserving data
releasing framework. First, certain predefined privacy and utility problems are
learned from the public domain data (background knowledge). Later, our approach
leverages the learned knowledge to precisely perturb the data owners' data into
privatized data that can be successfully utilized for certain intended purpose
(learning to succeed), without jeopardizing certain predefined privacy
(training to fail). Extensive experiments have been conducted on Human Activity
Recognition, Census Income and Bank Marketing datasets to demonstrate the
effectiveness and practicality of our framework.
- Abstract(参考訳): ビッグデータ時代には、個々のデータを活用して特定の価値あるサービス(ユーティリティ)を提供するクラウドベースのデータ駆動アプリケーションが増えています。
一方、個人データの同じセットを使用して、個人の機密情報を推測することで、個人のプライバシをスヌープする新たなチャネルを作成することができる。
したがって、データ所有者が民営化されたデータをリリースできるようにする技術を開発することは非常に重要である。
しかし、既存のデータリリースアプローチは、プライバシー強調(ユーティリティを考慮せず)か、ユーティリティ駆動(プライバシに関する保証なし)である。
本研究では,2段階の摂動に基づくプライバシー保護型データリリースフレームワークを提案する。
まず、特定の事前定義されたプライバシーとユーティリティの問題は、パブリックドメインデータ(背景知識)から学習される。
その後、我々のアプローチでは、学習した知識を活用して、データ所有者のデータを、特定の目的(成功への学習)のためにうまく活用できる民営化されたデータに正確に摂動する。
本フレームワークの有効性と実用性を示すために,人的活動認識,センサス所得,銀行マーケティングのデータセットについて大規模な実験を行った。
関連論文リスト
- A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Considerations for Differentially Private Learning with Large-Scale
Public Pretraining [58.75893136929649]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z) - Towards a Data Privacy-Predictive Performance Trade-off [2.580765958706854]
分類タスクにおけるデータプライバシと予測性能のトレードオフの存在を評価する。
従来の文献とは異なり、プライバシーのレベルが高ければ高いほど、予測性能が向上することを確認した。
論文 参考訳(メタデータ) (2022-01-13T21:48:51Z) - Causally Constrained Data Synthesis for Private Data Release [36.80484740314504]
原データの特定の統計特性を反映した合成データを使用することで、原データのプライバシーが保護される。
以前の作業では、正式なプライバシ保証を提供するために、差分プライベートなデータリリースメカニズムを使用していました。
トレーニングプロセスに因果情報を導入し、上記のトレードオフを好意的に修正することを提案する。
論文 参考訳(メタデータ) (2021-05-27T13:46:57Z) - Adversarial representation learning for synthetic replacement of private
attributes [0.7619404259039281]
第1ステップでは機密情報を除去し,第2ステップではこの情報を独立したランダムサンプルに置き換える,という2つのステップを含む,データ民営化のための新しいアプローチを提案する。
本手法は, より強い敵を騙すようにモデルを訓練することで, 強いプライバシを確保するために, 敵対表現学習を基盤としている。
論文 参考訳(メタデータ) (2020-06-14T22:07:19Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z) - Beyond privacy regulations: an ethical approach to data usage in
transportation [64.86110095869176]
本稿では,フェデレート機械学習を交通分野に適用する方法について述べる。
フェデレートラーニングは、ユーザのプライバシを尊重しつつ、プライバシに敏感なデータを処理可能にする方法だと考えています。
論文 参考訳(メタデータ) (2020-04-01T15:10:12Z) - Privacy-Preserving Boosting in the Local Setting [17.375582978294105]
機械学習では、複数のベース学習者と優れた学習者を組み合わせるように設計された最も一般的な方法の1つがブースティングである。
ビッグデータ時代において、個人や団体によって保持されるデータ(個人画像、閲覧履歴、国勢調査情報など)は、より機密性の高い情報を含む傾向にある。
ローカル微分プライバシーは、データ所有者に強力な保証を提供する効果的なプライバシー保護アプローチとして提案されている。
論文 参考訳(メタデータ) (2020-02-06T04:48:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。