論文の概要: PrePaMS: Privacy-Preserving Participant Management System for Studies with Rewards and Prerequisites
- arxiv url: http://arxiv.org/abs/2409.10192v1
- Date: Mon, 16 Sep 2024 11:35:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 14:28:31.976588
- Title: PrePaMS: Privacy-Preserving Participant Management System for Studies with Rewards and Prerequisites
- Title(参考訳): PrePaMS: Rewards and Prequisites 研究のためのプライバシ保護参加者管理システム
- Authors: Echo Meißner, Frank Kargl, Benjamin Erb, Felix Engelmann,
- Abstract要約: PrePaMSは、プライバシ保護の方法で必要なチェックと参加報酬をサポートする、参加管理システムである。
当社のシステムでは,潜在的な(非資格化)依存関係への参加を整理し,報酬の安全な支払いを可能にする。
- 参考スコア(独自算出の注目度): 4.2698418800007865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Taking part in surveys, experiments, and studies is often compensated by rewards to increase the number of participants and encourage attendance. While privacy requirements are usually considered for participation, privacy aspects of the reward procedure are mostly ignored. To this end, we introduce PrePaMS, an efficient participation management system that supports prerequisite checks and participation rewards in a privacy-preserving way. Our system organizes participations with potential (dis-)qualifying dependencies and enables secure reward payoffs. By leveraging a set of proven cryptographic primitives and mechanisms such as anonymous credentials and zero-knowledge proofs, participations are protected so that service providers and organizers cannot derive the identity of participants even within the reward process. In this paper, we have designed and implemented a prototype of PrePaMS to show its effectiveness and evaluated its performance under realistic workloads. PrePaMS covers the information whether subjects have participated in surveys, experiments, or studies. When combined with other secure solutions for the actual data collection within these events, PrePaMS can represent a cornerstone for more privacy-preserving empirical research.
- Abstract(参考訳): 調査、実験、研究に参加することは、しばしば報酬によって補償され、参加者の数を増やし、出席を奨励する。
通常、プライバシ要件は参加のために考慮されるが、報酬手続きのプライバシ側面はほとんど無視される。
この目的のために,プライバシ保護方式で事前チェックと参加報酬をサポートする,効率的な参加管理システムであるPrePaMSを紹介する。
我々のシステムは、潜在的(非平等な)依存関係への参加を組織し、安全な報酬の支払いを可能にします。
匿名認証やゼロ知識証明などの証明済みの暗号プリミティブとメカニズムを活用することで、サービスプロバイダやオーガナイザが報酬プロセス内でも参加者の同一性を引き出すことができないように、参加が保護される。
本稿では,PrePaMSの有効性を示すプロトタイプを設計,実装し,現実的なワークロード下での性能評価を行った。
PrePaMSは、被験者が調査、実験、研究に参加したかどうかをカバーしている。
これらのイベント内の実際のデータ収集のための他のセキュアなソリューションと組み合わせることで、PrePaMSはよりプライバシー保護の実証研究の基盤となる。
関連論文リスト
- NeurIPS 2023 Competition: Privacy Preserving Federated Learning Document VQA [49.74911193222192]
このコンペティションでは、関連する質問や回答とともに、本物の請求書文書のデータセットが導入された。
ベースモデルは多モード生成言語モデルであり、視覚的またはテキスト的入力モダリティによってセンシティブな情報を公開することができる。
参加者は最小限の効用閾値を維持しながら通信コストを削減するエレガントなソリューションを提案した。
論文 参考訳(メタデータ) (2024-11-06T07:51:19Z) - Preserving the Privacy of Reward Functions in MDPs through Deception [13.664014596337037]
多くの物理的およびサイバーセキュリティドメインにおいて、決定が監視可能である場合、シーケンシャルな意思決定エージェントの好み(または報酬)のプライバシを保存することが不可欠である。
本稿では,MDPにおける行動の連続を計画する際のプライバシ保護について論じる。
論文 参考訳(メタデータ) (2024-07-13T09:03:22Z) - The Role of Privacy Guarantees in Voluntary Donation of Private Health Data for Altruistic Goals [15.506410659562205]
本研究は,プライバシ・エンハンスメント・テクノロジー(PET)を通じて提供される4つの一般的な保証の下で,新しい治療法を開発するために,米国在住の人々が医療データを寄付する意思について検討する。
以上の結果から, プライバシ保護の明示的なアウトライン化が, 全体的な認識にほとんど影響を与えないことが判明した。
技術コミュニティはPET保証の信頼を高めるメカニズムとして監査を提案してきたが、そのような監査に対する透明性からの制限効果を観察した。
論文 参考訳(メタデータ) (2024-07-03T18:50:48Z) - Incentives in Private Collaborative Machine Learning [56.84263918489519]
コラボレーション型機械学習は、複数のパーティのデータに基づいてモデルをトレーニングする。
インセンティブとして差分プライバシー(DP)を導入する。
合成および実世界のデータセットに対するアプローチの有効性と実用性を実証的に実証した。
論文 参考訳(メタデータ) (2024-04-02T06:28:22Z) - VPAS: Publicly Verifiable and Privacy-Preserving Aggregate Statistics on Distributed Datasets [4.181095166452762]
プライバシ保護アグリゲーションプロトコルにおける入力検証と公開検証の課題について検討する。
これらの要件を満たす「VPAS」プロトコルを提案する。
本研究は,従来のzkSNARKを用いた場合に比べて,本プロトコルの妥当性に関するオーバーヘッドが10倍低いことを示す。
論文 参考訳(メタデータ) (2024-03-22T13:50:22Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Lessons from the AdKDD'21 Privacy-Preserving ML Challenge [57.365745458033075]
W3Cの顕著な提案では、過去のディスプレイの集計された、差別化されたプライベートなレポートを通じてのみ広告信号を共有することができる。
この提案を広く研究するために、AdKDD'21でオープンなプライバシ保護機械学習チャレンジが行われた。
重要な発見は、大量の集約されたデータの小さな集合が存在する場合の学習モデルは驚くほど効率的で安価であることである。
論文 参考訳(メタデータ) (2022-01-31T11:09:59Z) - PeQES: A Platform for Privacy-enhanced Quantitative Empirical Studies [6.782635275179198]
我々は、事前登録された研究のための新しいプライバシー強化ワークフローを構築した。
また、適切な実行を技術的に強制する対応するプラットフォームであるPeQESを紹介します。
PeQESは、プライバシ強化された研究を可能にする最初のプラットフォームであり、研究プロトコルの完全性を確保し、参加者のデータの機密性を同時に保護する。
論文 参考訳(メタデータ) (2021-03-09T16:46:25Z) - Quality Inference in Federated Learning with Secure Aggregation [0.7614628596146599]
安全なアグリゲーションを適用した場合でも,品質情報を推測し,特定の参加者に関連付けることができることを示す。
本研究では,誤動作の検出,トレーニング性能の安定化,参加者の個人的貢献度の測定に,推定品質情報を適用した。
論文 参考訳(メタデータ) (2020-07-13T08:36:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。