論文の概要: Towards a Data Privacy-Predictive Performance Trade-off
- arxiv url: http://arxiv.org/abs/2201.05226v1
- Date: Thu, 13 Jan 2022 21:48:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-17 14:57:06.110232
- Title: Towards a Data Privacy-Predictive Performance Trade-off
- Title(参考訳): データプライバシ予測型パフォーマンストレードオフに向けて
- Authors: T\^ania Carvalho, Nuno Moniz, Pedro Faria and Lu\'is Antunes
- Abstract要約: 分類タスクにおけるデータプライバシと予測性能のトレードオフの存在を評価する。
従来の文献とは異なり、プライバシーのレベルが高ければ高いほど、予測性能が向上することを確認した。
- 参考スコア(独自算出の注目度): 2.580765958706854
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine learning is increasingly used in the most diverse applications and
domains, whether in healthcare, to predict pathologies, or in the financial
sector to detect fraud. One of the linchpins for efficiency and accuracy in
machine learning is data utility. However, when it contains personal
information, full access may be restricted due to laws and regulations aiming
to protect individuals' privacy. Therefore, data owners must ensure that any
data shared guarantees such privacy. Removal or transformation of private
information (de-identification) are among the most common techniques.
Intuitively, one can anticipate that reducing detail or distorting information
would result in losses for model predictive performance. However, previous work
concerning classification tasks using de-identified data generally demonstrates
that predictive performance can be preserved in specific applications. In this
paper, we aim to evaluate the existence of a trade-off between data privacy and
predictive performance in classification tasks. We leverage a large set of
privacy-preserving techniques and learning algorithms to provide an assessment
of re-identification ability and the impact of transformed variants on
predictive performance. Unlike previous literature, we confirm that the higher
the level of privacy (lower re-identification risk), the higher the impact on
predictive performance, pointing towards clear evidence of a trade-off.
- Abstract(参考訳): マシンラーニングは、医療、病理予測、詐欺検出のための金融セクターなど、最も多様なアプリケーションやドメインでますます使われています。
機械学習における効率性と正確性のためのlinchpinの1つは、データユーティリティである。
しかし、個人情報を含む場合には、個人のプライバシーを保護するための法律や規制により、完全なアクセスを制限することができる。
したがって、データ所有者は、共有されたデータによってそのようなプライバシーが保証されなければならない。
プライベート情報の削除または変換(復号化)が最も一般的な手法である。
直感的には、詳細化や情報の歪みがモデル予測性能の損失をもたらすと予測できる。
しかし、非識別データを用いた分類タスクに関する以前の研究は、予測性能を特定のアプリケーションに保持できることを一般に示している。
本稿では,分類タスクにおけるデータプライバシと予測性能のトレードオフの存在を評価することを目的とする。
我々は、大量のプライバシー保護技術と学習アルゴリズムを活用し、再識別能力と変換された変種が予測性能に与える影響を評価する。
従来の文献とは異なり、プライバシのレベルが高くなるほど(より低い再識別リスク)、予測パフォーマンスへの影響が高まり、トレードオフの明確な証拠が指摘される。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - A Summary of Privacy-Preserving Data Publishing in the Local Setting [0.6749750044497732]
統計開示制御は、機密情報を匿名化して暴露するリスクを最小限にすることを目的としている。
マイクロデータの復号化に使用される現在のプライバシ保存技術について概説し、様々な開示シナリオに適したプライバシ対策を掘り下げ、情報損失と予測性能の指標を評価する。
論文 参考訳(メタデータ) (2023-12-19T04:23:23Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - A General Framework for Auditing Differentially Private Machine Learning [27.99806936918949]
本稿では,差分プライベートな学習者によって与えられるプライバシ保証を統計的に評価する枠組みを提案する。
本研究は、微分プライベート機械学習実装のプライバシを実証的に評価する一般的な手法を開発する。
論文 参考訳(メタデータ) (2022-10-16T21:34:18Z) - When Fairness Meets Privacy: Fair Classification with Semi-Private
Sensitive Attributes [18.221858247218726]
半私的な環境での公平な分類の新規かつ実践的な問題について検討する。
センシティブな属性のほとんどはプライベートであり、クリーンな属性はごくわずかである。
半原始的環境下での公正な予測を実現するための新しいフレームワークであるFairSPを提案する。
論文 参考訳(メタデータ) (2022-07-18T01:10:25Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Utility-aware Privacy-preserving Data Releasing [7.462336024223669]
本稿では2段階の摂動に基づくプライバシー保護データ公開フレームワークを提案する。
まず、特定の事前定義されたプライバシとユーティリティの問題がパブリックドメインデータから学習される。
そして、学習した知識を活用して、データ所有者のデータを民営化したデータに正確に摂動させます。
論文 参考訳(メタデータ) (2020-05-09T05:32:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。