論文の概要: Don't Look at the Data! How Differential Privacy Reconfigures the
Practices of Data Science
- arxiv url: http://arxiv.org/abs/2302.11775v1
- Date: Thu, 23 Feb 2023 04:28:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 16:18:39.083375
- Title: Don't Look at the Data! How Differential Privacy Reconfigures the
Practices of Data Science
- Title(参考訳): データを見るな!
ディファレンシャルプライバシがデータサイエンスのプラクティスをどのように再構成するか
- Authors: Jayshree Sarathy, Sophia Song, Audrey Haque, Tania Schlatter, Salil
Vadhan
- Abstract要約: 差別化プライバシ(DP)は,オープンアクセスとともにプライバシを提供する,有望な方法のひとつだ。
我々は、DPのエキスパートでない19人のデータ実践者とのインタビューを行う。
DPはセンシティブなデータセットへの広範なアクセスを提供すると約束しているが、データサイエンスワークフローのすべてのステージに課題も導入している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Across academia, government, and industry, data stewards are facing
increasing pressure to make datasets more openly accessible for researchers
while also protecting the privacy of data subjects. Differential privacy (DP)
is one promising way to offer privacy along with open access, but further
inquiry is needed into the tensions between DP and data science. In this study,
we conduct interviews with 19 data practitioners who are non-experts in DP as
they use a DP data analysis prototype to release privacy-preserving statistics
about sensitive data, in order to understand perceptions, challenges, and
opportunities around using DP. We find that while DP is promising for providing
wider access to sensitive datasets, it also introduces challenges into every
stage of the data science workflow. We identify ethics and governance questions
that arise when socializing data scientists around new privacy constraints and
offer suggestions to better integrate DP and data science.
- Abstract(参考訳): 学術、政府、業界全体において、データスチュワードは、データ対象のプライバシーを保護しながら、研究者がデータセットをよりオープンにアクセスできるようにするための圧力に直面している。
差分プライバシー(DP)は、オープンアクセスとともにプライバシーを提供する有望な方法のひとつだが、DPとデータサイエンスの緊張関係についてさらなる調査が必要である。
本研究では,dpデータ解析のプロトタイプを用いて,機密データに関するプライバシ保護統計を公表し,dpの利用に関する認識や課題,機会を理解するために,非専門家である19人のデータ実践者との面接を行った。
DPはセンシティブなデータセットに広範なアクセスを提供することを約束していますが、データサイエンスワークフローのすべてのステージに課題を導入しています。
我々は、データ科学者を新たなプライバシー制約に関連付ける際に生じる倫理とガバナンスの問題を特定し、DPとデータサイエンスをよりうまく統合するように提案する。
関連論文リスト
- DP-CDA: An Algorithm for Enhanced Privacy Preservation in Dataset Synthesis Through Randomized Mixing [0.8739101659113155]
有効なデータパブリッシングアルゴリズムであるemphDP-CDAを導入する。
提案アルゴリズムは、クラス固有の方法でデータをランダムに混合し、プライバシー保証を確保するために慎重に調整されたランダム性を誘導することにより、合成データセットを生成する。
以上の結果から,DP-CDAを用いた合成データセットは,同一のプライバシー要件下であっても,従来のデータパブリッシングアルゴリズムで生成したデータセットよりも優れた実用性が得られることが示唆された。
論文 参考訳(メタデータ) (2024-11-25T06:14:06Z) - A Survey on Differential Privacy for SpatioTemporal Data in Transportation Research [0.9790236766474202]
交通機関では、時空間データ収集が急増している。
このようなデータにおける微分プライバシーの最近の発展は、応用プライバシーの研究につながっている。
個人情報を公開することなく、研究や推論におけるこのようなデータの必要性に対処するために、重要な研究が提案されている。
論文 参考訳(メタデータ) (2024-07-18T03:19:29Z) - On Responsible Machine Learning Datasets with Fairness, Privacy, and Regulatory Norms [56.119374302685934]
AI技術の信頼性に関する深刻な懸念があった。
機械学習とディープラーニングのアルゴリズムは、開発に使用されるデータに大きく依存する。
本稿では,責任あるルーブリックを用いてデータセットを評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:01:53Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Releasing survey microdata with exact cluster locations and additional
privacy safeguards [77.34726150561087]
本稿では,プライバシ保護を付加した独自のマイクロデータの有用性を活用した,代替的なマイクロデータ配信戦略を提案する。
当社の戦略は, 再識別の試みにおいても, 任意の属性に対する再識別リスクを60~80%削減する。
論文 参考訳(メタデータ) (2022-05-24T19:37:11Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z) - Protecting Privacy and Transforming COVID-19 Case Surveillance Datasets
for Public Use [0.4462475518267084]
CDCは、個人レベルの未確認データを管轄区域から収集し、現在800万件以上の記録を保有している。
データ要素は、有用性、公開要求、およびプライバシーの影響に基づいて含まれた。
機密情報の再識別や暴露のリスクを低減するため、特定のフィールド値が抑制された。
論文 参考訳(メタデータ) (2021-01-13T14:24:20Z) - GS-WGAN: A Gradient-Sanitized Approach for Learning Differentially
Private Generators [74.16405337436213]
我々は、GS-WGAN(Gradient-sanitized Wasserstein Generative Adrial Networks)を提案する。
GS-WGANは、厳格なプライバシー保証を備えた機密データの衛生的な形式での公開を可能にする。
このアプローチは、複数のメトリクスにわたる最先端のアプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2020-06-15T10:01:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。