論文の概要: Optimal Data Acquisition with Privacy-Aware Agents
- arxiv url: http://arxiv.org/abs/2209.06340v1
- Date: Tue, 13 Sep 2022 22:59:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:09:54.837795
- Title: Optimal Data Acquisition with Privacy-Aware Agents
- Title(参考訳): プライバシアウェアエージェントによる最適データ取得
- Authors: Rachel Cummings, Hadi Elzayn, Vasilis Gkatzelis, Emmanouil
Pountourakis, Juba Ziani
- Abstract要約: プライバシ対応エージェントからプライベートデータを収集したいデータアナリストやプラットフォームが直面する問題について検討する。
このデータと引き換えに、このプラットフォームは、すべてのエージェントが提出したデータを使って計算された統計データという形で、エージェントにサービスを提供する。
モデルの2つの変種におけるプラットフォームに対するエージェント重みの最適選択を半閉形式で評価する。
- 参考スコア(独自算出の注目度): 17.96833459993774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem faced by a data analyst or platform that wishes to
collect private data from privacy-aware agents. To incentivize participation,
in exchange for this data, the platform provides a service to the agents in the
form of a statistic computed using all agents' submitted data. The agents
decide whether to join the platform (and truthfully reveal their data) or not
participate by considering both the privacy costs of joining and the benefit
they get from obtaining the statistic. The platform must ensure the statistic
is computed differentially privately and chooses a central level of noise to
add to the computation, but can also induce personalized privacy levels (or
costs) by giving different weights to different agents in the computation as a
function of their heterogeneous privacy preferences (which are known to the
platform). We assume the platform aims to optimize the accuracy of the
statistic, and must pick the privacy level of each agent to trade-off between
i) incentivizing more participation and ii) adding less noise to the estimate.
We provide a semi-closed form characterization of the optimal choice of agent
weights for the platform in two variants of our model. In both of these models,
we identify a common nontrivial structure in the platform's optimal solution:
an instance-specific number of agents with the least stringent privacy
requirements are pooled together and given the same weight, while the weights
of the remaining agents decrease as a function of the strength of their privacy
requirement. We also provide algorithmic results on how to find the optimal
value of the noise parameter used by the platform and of the weights given to
the agents.
- Abstract(参考訳): プライバシ対応エージェントからプライベートデータを収集したいデータアナリストやプラットフォームが直面する問題について検討する。
このデータと引き換えに、このプラットフォームは、すべてのエージェントが提出したデータを使って計算された統計の形でエージェントにサービスを提供する。
エージェントは、参加するプライバシコストと、その統計を得ることによる利益の両方を考慮して、プラットフォームに参加するか(そして、真にデータを開示するか)を決める。
プラットフォームは、統計がプライベートに計算されることを保証し、計算に追加するための中心的なノイズレベルを選択すると同時に、不均一なプライバシ優先(プラットフォームで知られている)の関数として計算において異なるエージェントに異なる重みを与えることにより、パーソナライズされたプライバシレベル(あるいはコスト)を誘導することも可能である。
このプラットフォームは統計の精度を最適化することを目的としており、各エージェントのプライバシーレベルを選択してトレードオフを行なわなければならない。
一 より多くの参加を促すこと
二 見積りに少ないノイズを加えること。
2種類のモデルにおいて,プラットフォームに対するエージェント重みの最適選択を半閉じた形式として評価する。
これらのモデルの両方において、プラットフォームの最適解における一般的な非自明な構造を識別する: 最小限のプライバシ要件を持つエージェントのインスタンス固有の個数がプールされ、同じ重みが与えられる一方、残りのエージェントの重みは、プライバシ要件の強みの関数として減少する。
また、プラットフォームが使用する雑音パラメータの最適値とエージェントに与えられる重みの探索方法について、アルゴリズムによる結果も提供する。
関連論文リスト
- Enabling Trade-offs in Privacy and Utility in Genomic Data Beacons and
Summary Statistics [26.99521354120141]
要約データやBeaconの応答とプライバシを明示的にトレードオフするための最適化ベースのアプローチを導入します。
第一に、攻撃者はメンバーシップ推論のクレームを行うために確率比テストを適用する。
第2に、攻撃者は、個人間のスコアの分離に対するデータリリースの影響を考慮に入れたしきい値を使用する。
論文 参考訳(メタデータ) (2023-01-11T19:16:13Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Secure Distributed/Federated Learning: Prediction-Privacy Trade-Off for
Multi-Agent System [4.190359509901197]
分散学習(DLとFL)フレームワーク内で推論を行うビッグデータ時代において、中央サーバは大量のデータを処理する必要がある。
分散コンピューティングトポロジを考えると、プライバシは第一級の関心事になっている。
本研究では,テキストプライバシを意識したサーバを,エージェントごとの情報処理制約を考慮したマルチエージェント代入問題に適用する。
論文 参考訳(メタデータ) (2022-04-24T19:19:20Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Production of Categorical Data Verifying Differential Privacy:
Conception and Applications to Machine Learning [0.0]
差別化プライバシは、プライバシとユーティリティのトレードオフの定量化を可能にする正式な定義である。
ローカルDP(LDP)モデルでは、ユーザはデータをサーバに送信する前に、ローカルにデータをサニタイズすることができる。
いずれの場合も、微分プライベートなMLモデルは、非プライベートなモデルとほぼ同じユーティリティメトリクスを達成できると結論付けました。
論文 参考訳(メタデータ) (2022-04-02T12:50:14Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Locally Differentially Private Bayesian Inference [23.882144188177275]
ローカルディファレンシャルプライバシ(LDP)は、アグリゲータが信頼できないいくつかのシナリオにおいて、プライバシを保存するデータ収集の選択手法として登場した。
ベイジアン推論は,LDPの下でのプライバシに付加されるノイズを考慮し,ノイズを考慮した確率的モデリングフレームワークを提供する。
論文 参考訳(メタデータ) (2021-10-27T13:36:43Z) - Data Sharing Markets [95.13209326119153]
我々は、各エージェントがデータの買い手および売り手の両方になり得る設定について検討する。
両データ交換(データ付きトレーディングデータ)と一方データ交換(お金付きトレーディングデータ)の2つの事例を考察する。
論文 参考訳(メタデータ) (2021-07-19T06:00:34Z) - PRICURE: Privacy-Preserving Collaborative Inference in a Multi-Party
Setting [3.822543555265593]
本稿では,セキュアなマルチパーティ計算とディファレンシャルプライバシの補完的強みを組み合わせたシステムpricureを提案する。
PRICUREは、複数のモデルオーナー間のプライバシー保護共同予測を可能にします。
ベンチマーク医療画像分類データセットを含む4つのデータセットのニューラルネットワーク上でPRICUREを評価する。
論文 参考訳(メタデータ) (2021-02-19T05:55:53Z) - Differential Privacy of Hierarchical Census Data: An Optimization
Approach [53.29035917495491]
国勢調査局(Census Bureaus)は、個人に関する機密情報を明らかにすることなく、大人口に関する社会経済的データをまとめて公開することに興味を持っている。
最近の出来事では、これらの組織が直面しているプライバシー上の課題がいくつか特定されている。
本稿では,階層的な個人数を解放する新たな差分プライバシ機構を提案する。
論文 参考訳(メタデータ) (2020-06-28T18:19:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。