論文の概要: Optimal Data Acquisition with Privacy-Aware Agents
- arxiv url: http://arxiv.org/abs/2209.06340v1
- Date: Tue, 13 Sep 2022 22:59:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:09:54.837795
- Title: Optimal Data Acquisition with Privacy-Aware Agents
- Title(参考訳): プライバシアウェアエージェントによる最適データ取得
- Authors: Rachel Cummings, Hadi Elzayn, Vasilis Gkatzelis, Emmanouil
Pountourakis, Juba Ziani
- Abstract要約: プライバシ対応エージェントからプライベートデータを収集したいデータアナリストやプラットフォームが直面する問題について検討する。
このデータと引き換えに、このプラットフォームは、すべてのエージェントが提出したデータを使って計算された統計データという形で、エージェントにサービスを提供する。
モデルの2つの変種におけるプラットフォームに対するエージェント重みの最適選択を半閉形式で評価する。
- 参考スコア(独自算出の注目度): 17.96833459993774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem faced by a data analyst or platform that wishes to
collect private data from privacy-aware agents. To incentivize participation,
in exchange for this data, the platform provides a service to the agents in the
form of a statistic computed using all agents' submitted data. The agents
decide whether to join the platform (and truthfully reveal their data) or not
participate by considering both the privacy costs of joining and the benefit
they get from obtaining the statistic. The platform must ensure the statistic
is computed differentially privately and chooses a central level of noise to
add to the computation, but can also induce personalized privacy levels (or
costs) by giving different weights to different agents in the computation as a
function of their heterogeneous privacy preferences (which are known to the
platform). We assume the platform aims to optimize the accuracy of the
statistic, and must pick the privacy level of each agent to trade-off between
i) incentivizing more participation and ii) adding less noise to the estimate.
We provide a semi-closed form characterization of the optimal choice of agent
weights for the platform in two variants of our model. In both of these models,
we identify a common nontrivial structure in the platform's optimal solution:
an instance-specific number of agents with the least stringent privacy
requirements are pooled together and given the same weight, while the weights
of the remaining agents decrease as a function of the strength of their privacy
requirement. We also provide algorithmic results on how to find the optimal
value of the noise parameter used by the platform and of the weights given to
the agents.
- Abstract(参考訳): プライバシ対応エージェントからプライベートデータを収集したいデータアナリストやプラットフォームが直面する問題について検討する。
このデータと引き換えに、このプラットフォームは、すべてのエージェントが提出したデータを使って計算された統計の形でエージェントにサービスを提供する。
エージェントは、参加するプライバシコストと、その統計を得ることによる利益の両方を考慮して、プラットフォームに参加するか(そして、真にデータを開示するか)を決める。
プラットフォームは、統計がプライベートに計算されることを保証し、計算に追加するための中心的なノイズレベルを選択すると同時に、不均一なプライバシ優先(プラットフォームで知られている)の関数として計算において異なるエージェントに異なる重みを与えることにより、パーソナライズされたプライバシレベル(あるいはコスト)を誘導することも可能である。
このプラットフォームは統計の精度を最適化することを目的としており、各エージェントのプライバシーレベルを選択してトレードオフを行なわなければならない。
一 より多くの参加を促すこと
二 見積りに少ないノイズを加えること。
2種類のモデルにおいて,プラットフォームに対するエージェント重みの最適選択を半閉じた形式として評価する。
これらのモデルの両方において、プラットフォームの最適解における一般的な非自明な構造を識別する: 最小限のプライバシ要件を持つエージェントのインスタンス固有の個数がプールされ、同じ重みが与えられる一方、残りのエージェントの重みは、プライバシ要件の強みの関数として減少する。
また、プラットフォームが使用する雑音パラメータの最適値とエージェントに与えられる重みの探索方法について、アルゴリズムによる結果も提供する。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Segmented Private Data Aggregation in the Multi-message Shuffle Model [6.436165623346879]
我々は、差分プライバシーのマルチメッセージシャッフルモデルにおいて、セグメント化されたプライベートデータアグリゲーションの研究を開拓した。
当社のフレームワークでは,ユーザに対するフレキシブルなプライバシ保護と,アグリゲーションサーバのための拡張ユーティリティを導入している。
提案手法は,既存手法と比較して推定誤差を約50%削減する。
論文 参考訳(メタデータ) (2024-07-29T01:46:44Z) - Incentives in Private Collaborative Machine Learning [56.84263918489519]
コラボレーション型機械学習は、複数のパーティのデータに基づいてモデルをトレーニングする。
インセンティブとして差分プライバシー(DP)を導入する。
合成および実世界のデータセットに対するアプローチの有効性と実用性を実証的に実証した。
論文 参考訳(メタデータ) (2024-04-02T06:28:22Z) - Libertas: Privacy-Preserving Computation for Decentralised Personal Data Stores [19.54818218429241]
セキュアなマルチパーティ計算をSolidと統合するためのモジュール設計を提案する。
私たちのアーキテクチャであるLibertasでは、基盤となるSolidの設計にプロトコルレベルの変更は必要ありません。
既存の差分プライバシー技術と組み合わせて、出力プライバシーを確保する方法を示す。
論文 参考訳(メタデータ) (2023-09-28T12:07:40Z) - Enabling Trade-offs in Privacy and Utility in Genomic Data Beacons and
Summary Statistics [26.99521354120141]
要約データやBeaconの応答とプライバシを明示的にトレードオフするための最適化ベースのアプローチを導入します。
第一に、攻撃者はメンバーシップ推論のクレームを行うために確率比テストを適用する。
第2に、攻撃者は、個人間のスコアの分離に対するデータリリースの影響を考慮に入れたしきい値を使用する。
論文 参考訳(メタデータ) (2023-01-11T19:16:13Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Production of Categorical Data Verifying Differential Privacy:
Conception and Applications to Machine Learning [0.0]
差別化プライバシは、プライバシとユーティリティのトレードオフの定量化を可能にする正式な定義である。
ローカルDP(LDP)モデルでは、ユーザはデータをサーバに送信する前に、ローカルにデータをサニタイズすることができる。
いずれの場合も、微分プライベートなMLモデルは、非プライベートなモデルとほぼ同じユーティリティメトリクスを達成できると結論付けました。
論文 参考訳(メタデータ) (2022-04-02T12:50:14Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Locally Differentially Private Bayesian Inference [23.882144188177275]
ローカルディファレンシャルプライバシ(LDP)は、アグリゲータが信頼できないいくつかのシナリオにおいて、プライバシを保存するデータ収集の選択手法として登場した。
ベイジアン推論は,LDPの下でのプライバシに付加されるノイズを考慮し,ノイズを考慮した確率的モデリングフレームワークを提供する。
論文 参考訳(メタデータ) (2021-10-27T13:36:43Z) - Data Sharing Markets [95.13209326119153]
我々は、各エージェントがデータの買い手および売り手の両方になり得る設定について検討する。
両データ交換(データ付きトレーディングデータ)と一方データ交換(お金付きトレーディングデータ)の2つの事例を考察する。
論文 参考訳(メタデータ) (2021-07-19T06:00:34Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。