論文の概要: PeQES: A Platform for Privacy-enhanced Quantitative Empirical Studies
- arxiv url: http://arxiv.org/abs/2103.05544v1
- Date: Tue, 9 Mar 2021 16:46:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-08 15:51:50.026930
- Title: PeQES: A Platform for Privacy-enhanced Quantitative Empirical Studies
- Title(参考訳): peqes: プライバシエンハンスド定量的研究のためのプラットフォーム
- Authors: Dominik Mei{\ss}ner, Felix Engelmann, Frank Kargl, Benjamin Erb
- Abstract要約: 我々は、事前登録された研究のための新しいプライバシー強化ワークフローを構築した。
また、適切な実行を技術的に強制する対応するプラットフォームであるPeQESを紹介します。
PeQESは、プライバシ強化された研究を可能にする最初のプラットフォームであり、研究プロトコルの完全性を確保し、参加者のデータの機密性を同時に保護する。
- 参考スコア(独自算出の注目度): 6.782635275179198
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Empirical sciences and in particular psychology suffer a methodological
crisis due to the non-reproducibility of results, and in rare cases,
questionable research practices. Pre-registered studies and the publication of
raw data sets have emerged as effective countermeasures. However, this approach
represents only a conceptual procedure and may in some cases exacerbate privacy
issues associated with data publications. We establish a novel,
privacy-enhanced workflow for pre-registered studies. We also introduce PeQES,
a corresponding platform that technically enforces the appropriate execution
while at the same time protecting the participants' data from unauthorized use
or data repurposing. Our PeQES prototype proves the overall feasibility of our
privacy-enhanced workflow while introducing only a negligible performance
overhead for data acquisition and data analysis of an actual study. Using
trusted computing mechanisms, PeQES is the first platform to enable
privacy-enhanced studies, to ensure the integrity of study protocols, and to
safeguard the confidentiality of participants' data at the same time.
- Abstract(参考訳): 経験科学、特に心理学は、結果の不再現性、そしてまれに疑わしい研究慣行によって、方法論的な危機に陥る。
事前登録研究や生データセットの公開は効果的な対策として現れてきた。
しかし、このアプローチは概念的な手続きに過ぎず、場合によってはデータ出版に関連するプライバシー問題を悪化させる可能性がある。
我々は,事前登録研究のための新規なプライバシー保護ワークフローを確立する。
また,適切な実行を技術的に実施すると同時に,不正な使用やデータ再提出から参加者のデータを保護するプラットフォームであるpeqesについても紹介する。
当社のpeqesプロトタイプは、データ取得と実際の研究のデータ分析に無視できないパフォーマンスオーバーヘッドを導入しながら、プライバシー強化ワークフローの全体的な実現可能性を示しています。
PeQESは、信頼できるコンピューティングメカニズムを使用して、プライバシ強化された研究を可能にし、研究プロトコルの完全性を確保し、参加者のデータの機密性を同時に保護する最初のプラットフォームである。
関連論文リスト
- Conditional Density Estimations from Privacy-Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Towards Generalizable Data Protection With Transferable Unlearnable
Examples [50.628011208660645]
本稿では、転送不可能な例を生成することによって、新しい一般化可能なデータ保護手法を提案する。
私たちの知る限りでは、これはデータ分散の観点からデータのプライバシを調べる最初のソリューションです。
論文 参考訳(メタデータ) (2023-05-18T04:17:01Z) - On the Privacy Risks of Algorithmic Recourse [17.33484111779023]
対戦相手がリコースを利用して、基礎となるモデルのトレーニングデータに関するプライベート情報を推測できるかどうかを調査する最初の試みを行う。
我々の研究は、リコメンデーション手法の普及において、意図しないプライバシー漏洩が重要なリスクとして確立されている。
論文 参考訳(メタデータ) (2022-11-10T09:04:24Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Collaborative Drug Discovery: Inference-level Data Protection
Perspective [2.624902795082451]
製薬業界は、データ資産を活用して、協調的な機械学習プラットフォームを通じて薬物発見を仮想化することができる。
参加者のトレーニングデータの意図しない漏洩から生じる、無視できないリスクがある。
本稿では,創薬前段階における協調的モデリングのためのプライバシリスク評価について述べる。
論文 参考訳(メタデータ) (2022-05-13T08:30:50Z) - Yes-Yes-Yes: Donation-based Peer Reviewing Data Collection for ACL
Rolling Review and Beyond [58.71736531356398]
本稿では、ピアレビューデータについて詳細な議論を行い、ピアレビューデータ収集のための倫理的・法的デシダータの概要を述べるとともに、最初の継続的な寄付ベースのデータ収集ワークフローを提案する。
本稿では、ACL Rolling Reviewにおいて、このワークフローの現在進行中の実装について報告し、新たに収集したデータから得られた最初の洞察を提供する。
論文 参考訳(メタデータ) (2022-01-27T11:02:43Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - A Critical Overview of Privacy-Preserving Approaches for Collaborative
Forecasting [0.0]
異なるデータ所有者間の協力は、予測品質の改善につながる可能性がある。
ビジネス上の競争要因と個人データ保護の問題から、データ所有者はデータの共有を望まないかもしれない。
本稿では、現状を解析し、データプライバシを保証する既存の方法の欠点をいくつか明らかにする。
論文 参考訳(メタデータ) (2020-04-20T20:21:04Z) - Anonymizing Data for Privacy-Preserving Federated Learning [3.3673553810697827]
我々は,フェデレートラーニングの文脈において,プライバシを提供するための最初の構文的アプローチを提案する。
当社のアプローチは,プライバシの保護レベルをサポートしながら,実用性やモデルの性能を最大化することを目的としている。
医療領域における2つの重要な課題について,100万人の患者の実世界電子健康データを用いて包括的実証評価を行った。
論文 参考訳(メタデータ) (2020-02-21T02:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。