論文の概要: PeQES: A Platform for Privacy-enhanced Quantitative Empirical Studies
- arxiv url: http://arxiv.org/abs/2103.05544v1
- Date: Tue, 9 Mar 2021 16:46:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-08 15:51:50.026930
- Title: PeQES: A Platform for Privacy-enhanced Quantitative Empirical Studies
- Title(参考訳): peqes: プライバシエンハンスド定量的研究のためのプラットフォーム
- Authors: Dominik Mei{\ss}ner, Felix Engelmann, Frank Kargl, Benjamin Erb
- Abstract要約: 我々は、事前登録された研究のための新しいプライバシー強化ワークフローを構築した。
また、適切な実行を技術的に強制する対応するプラットフォームであるPeQESを紹介します。
PeQESは、プライバシ強化された研究を可能にする最初のプラットフォームであり、研究プロトコルの完全性を確保し、参加者のデータの機密性を同時に保護する。
- 参考スコア(独自算出の注目度): 6.782635275179198
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Empirical sciences and in particular psychology suffer a methodological
crisis due to the non-reproducibility of results, and in rare cases,
questionable research practices. Pre-registered studies and the publication of
raw data sets have emerged as effective countermeasures. However, this approach
represents only a conceptual procedure and may in some cases exacerbate privacy
issues associated with data publications. We establish a novel,
privacy-enhanced workflow for pre-registered studies. We also introduce PeQES,
a corresponding platform that technically enforces the appropriate execution
while at the same time protecting the participants' data from unauthorized use
or data repurposing. Our PeQES prototype proves the overall feasibility of our
privacy-enhanced workflow while introducing only a negligible performance
overhead for data acquisition and data analysis of an actual study. Using
trusted computing mechanisms, PeQES is the first platform to enable
privacy-enhanced studies, to ensure the integrity of study protocols, and to
safeguard the confidentiality of participants' data at the same time.
- Abstract(参考訳): 経験科学、特に心理学は、結果の不再現性、そしてまれに疑わしい研究慣行によって、方法論的な危機に陥る。
事前登録研究や生データセットの公開は効果的な対策として現れてきた。
しかし、このアプローチは概念的な手続きに過ぎず、場合によってはデータ出版に関連するプライバシー問題を悪化させる可能性がある。
我々は,事前登録研究のための新規なプライバシー保護ワークフローを確立する。
また,適切な実行を技術的に実施すると同時に,不正な使用やデータ再提出から参加者のデータを保護するプラットフォームであるpeqesについても紹介する。
当社のpeqesプロトタイプは、データ取得と実際の研究のデータ分析に無視できないパフォーマンスオーバーヘッドを導入しながら、プライバシー強化ワークフローの全体的な実現可能性を示しています。
PeQESは、信頼できるコンピューティングメカニズムを使用して、プライバシ強化された研究を可能にし、研究プロトコルの完全性を確保し、参加者のデータの機密性を同時に保護する最初のプラットフォームである。
関連論文リスト
- Empirical Privacy Evaluations of Generative and Predictive Machine Learning Models -- A review and challenges for practice [0.3069335774032178]
生成技術を展開する前に、生成した合成データに関連するプライバシーリスクを実証的に評価することが重要である。
本稿では,機械学習に基づく生成および予測モデルにおける経験的プライバシ評価の基礎となる概念と前提について概説する。
論文 参考訳(メタデータ) (2024-11-19T12:19:28Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Towards Split Learning-based Privacy-Preserving Record Linkage [49.1574468325115]
ユーザデータのプライバシが要求されるアプリケーションを容易にするために、Split Learningが導入されている。
本稿では,プライバシ保護記録マッチングのための分割学習の可能性について検討する。
論文 参考訳(メタデータ) (2024-09-02T09:17:05Z) - An applied Perspective: Estimating the Differential Identifiability Risk of an Exemplary SOEP Data Set [2.66269503676104]
基本的統計的クエリの集合に対して,リスクメトリックを効率的に計算する方法を示す。
実世界の科学的データセットに基づいた実証分析は、現実的な条件下でのリスクの計算方法に関する知識を拡大します。
論文 参考訳(メタデータ) (2024-07-04T17:50:55Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Conditional Density Estimations from Privacy-Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - On the Privacy Risks of Algorithmic Recourse [17.33484111779023]
対戦相手がリコースを利用して、基礎となるモデルのトレーニングデータに関するプライベート情報を推測できるかどうかを調査する最初の試みを行う。
我々の研究は、リコメンデーション手法の普及において、意図しないプライバシー漏洩が重要なリスクとして確立されている。
論文 参考訳(メタデータ) (2022-11-10T09:04:24Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Anonymizing Data for Privacy-Preserving Federated Learning [3.3673553810697827]
我々は,フェデレートラーニングの文脈において,プライバシを提供するための最初の構文的アプローチを提案する。
当社のアプローチは,プライバシの保護レベルをサポートしながら,実用性やモデルの性能を最大化することを目的としている。
医療領域における2つの重要な課題について,100万人の患者の実世界電子健康データを用いて包括的実証評価を行った。
論文 参考訳(メタデータ) (2020-02-21T02:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。