論文の概要: From Task Tuning to Task Assignment in Privacy-Preserving Crowdsourcing
Platforms
- arxiv url: http://arxiv.org/abs/2007.05373v1
- Date: Fri, 10 Jul 2020 13:21:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 17:12:31.274112
- Title: From Task Tuning to Task Assignment in Privacy-Preserving Crowdsourcing
Platforms
- Title(参考訳): プライバシー保護型クラウドソーシングプラットフォームにおけるタスクチューニングからタスク割り当てへ
- Authors: Joris Dugu\'ep\'eroux (DRUID), Tristan Allard (DRUID)
- Abstract要約: クラウドソーシングプラットフォームの特別なワーカープロファイルには、大量の識別と機密性の高い個人情報が含まれている可能性がある。
これにより、プラットフォームが完全に信頼されていない場合でも、強力なプライバシ保証を提供する、プライバシ保護のクラウドソーシングプラットフォームが設計された。
本稿では,プライバシ保護型クラウドソーシングプラットフォーム内での作業者プロファイルの多種多様な利用を支援することを目的としたPKDアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Specialized worker profiles of crowdsourcing platforms may contain a large
amount of identifying and possibly sensitive personal information (e.g.,
personal preferences, skills, available slots, available devices) raising
strong privacy concerns. This led to the design of privacy-preserving
crowdsourcing platforms, that aim at enabling efficient crowd-sourcing
processes while providing strong privacy guarantees even when the platform is
not fully trusted. In this paper, we propose two contributions. First, we
propose the PKD algorithm with the goal of supporting a large variety of
aggregate usages of worker profiles within a privacy-preserving crowdsourcing
platform. The PKD algorithm combines together homomorphic encryption and
differential privacy for computing (perturbed) partitions of the
multi-dimensional space of skills of the actual population of workers and a
(perturbed) COUNT of workers per partition. Second, we propose to benefit from
recent progresses in Private Information Retrieval techniques in order to
design a solution to task assignment that is both private and affordable. We
perform an in-depth study of the problem of using PIR techniques for proposing
tasks to workers, show that it is NP-Hard, and come up with the PKD PIR Packing
heuristic that groups tasks together according to the partitioning output by
the PKD algorithm. In a nutshell, we design the PKD algorithm and the PKD PIR
Packing heuristic, we prove formally their security against honest-but-curious
workers and/or platform, we analyze their complexities, and we demonstrate
their quality and affordability in real-life scenarios through an extensive
experimental evaluation performed over both synthetic and realistic datasets.
- Abstract(参考訳): クラウドソーシングプラットフォームの特殊なワーカープロファイルには、個人情報(個人の好み、スキル、利用可能なスロット、利用可能なデバイスなど)を多量の識別し、潜在的にセンシティブな個人情報が含まれている可能性がある。
これは、プラットフォームが完全に信頼されていない場合でも、強力なプライバシ保証を提供しながら、効率的なクラウドソーシングプロセスの実現を目的とした、プライバシ保護のクラウドソーシングプラットフォームの設計につながった。
本稿では,2つの貢献を提案する。
まず,プライバシ保護型クラウドソーシングプラットフォーム内での作業者プロファイルの多種多様な利用を支援することを目的としたPKDアルゴリズムを提案する。
PKDアルゴリズムは、労働者の実際の集団のスキルの多次元空間のコンピューティング(摂動)パーティションと、パーティション当たりの労働者の(摂動)COUNTのホモモルフィック暗号化と差分プライバシを結合する。
第2に,プライベート情報検索技術の最近の進歩を活かして,プライベートかつ安価なタスク割り当てのソリューションを設計することを提案する。
作業者へのタスク提案にPIR技術を用いることの問題点を詳細に検討し、NP-Hardであることを示し、PKDアルゴリズムによる分割出力に基づいてタスクをグループ化するPKD PIR Packingヒューリスティックを考案する。
要するに、pkdアルゴリズムとpkd pirパッキングヒューリスティックをデザインし、正直な作業者やプラットフォームに対するセキュリティを正式に証明し、それらの複雑さを分析し、合成データと現実的なデータセットの両方で実施した広範囲な実験的評価を通じて、現実のシナリオにおける品質と可用性を実証します。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - A Learning-based Declarative Privacy-Preserving Framework for Federated Data Management [23.847568516724937]
本稿では,DP-SGDアルゴリズムを用いて学習したディープラーニングモデルを用いた新たなプライバシ保存手法を提案する。
次に、ユーザが"保護する方法"ではなく、"保護すべきプライベート情報"を指定可能な、宣言的なプライバシ保護ワークフローを新たにデモします。
論文 参考訳(メタデータ) (2024-01-22T22:50:59Z) - Libertas: Privacy-Preserving Computation for Decentralised Personal Data Stores [19.54818218429241]
セキュアなマルチパーティ計算をSolidと統合するためのモジュール設計を提案する。
私たちのアーキテクチャであるLibertasでは、基盤となるSolidの設計にプロトコルレベルの変更は必要ありません。
既存の差分プライバシー技術と組み合わせて、出力プライバシーを確保する方法を示す。
論文 参考訳(メタデータ) (2023-09-28T12:07:40Z) - Protecting Data from all Parties: Combining FHE and DP in Federated
Learning [0.09176056742068812]
トレーニングデータのプライバシに関して,拡張脅威モデルに対処するセキュアなフレームワークを提案する。
提案フレームワークは,トレーニングデータ所有者と集約サーバのすべての参加者から,トレーニングデータのプライバシを保護する。
新たな量子化演算子を用いて、同型暗号化を用いることにより、ノイズが定量化され、バウンドされる状況において、差分プライバシー保証が証明される。
論文 参考訳(メタデータ) (2022-05-09T14:33:44Z) - Production of Categorical Data Verifying Differential Privacy:
Conception and Applications to Machine Learning [0.0]
差別化プライバシは、プライバシとユーティリティのトレードオフの定量化を可能にする正式な定義である。
ローカルDP(LDP)モデルでは、ユーザはデータをサーバに送信する前に、ローカルにデータをサニタイズすることができる。
いずれの場合も、微分プライベートなMLモデルは、非プライベートなモデルとほぼ同じユーティリティメトリクスを達成できると結論付けました。
論文 参考訳(メタデータ) (2022-04-02T12:50:14Z) - MPCLeague: Robust MPC Platform for Privacy-Preserving Machine Learning [5.203329540700177]
この論文は、2、3、4パーティで効率的なMPCフレームワークを設計することに焦点を当て、少なくとも1つの汚職とリング構造をサポートする。
それぞれのフレームワークに対して2つのバリエーションを提案し、一方は実行時間を最小化し、もう一方は金銭的コストに焦点を当てる。
論文 参考訳(メタデータ) (2021-12-26T09:25:32Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。