論文の概要: Striking a Balance: An Optimal Mechanism Design for Heterogenous
Differentially Private Data Acquisition for Logistic Regression
- arxiv url: http://arxiv.org/abs/2309.10340v1
- Date: Tue, 19 Sep 2023 05:51:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 16:06:01.881346
- Title: Striking a Balance: An Optimal Mechanism Design for Heterogenous
Differentially Private Data Acquisition for Logistic Regression
- Title(参考訳): バランシング・ア・バランス:ロジスティック回帰のための異種微分プライベートデータ取得のための最適機構設計
- Authors: Ameya Anjarlekar, Rasoul Etesami, R. Srikant
- Abstract要約: プライバシに敏感な販売者から収集したデータに対してロジスティック回帰を行う際の問題点について検討する。
データは非公開であるため、販売者は支払いを通じてインセンティブを得る必要がある。
- 参考スコア(独自算出の注目度): 8.45602005745865
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We investigate the problem of performing logistic regression on data
collected from privacy-sensitive sellers. Since the data is private, sellers
must be incentivized through payments to provide their data. Thus, the goal is
to design a mechanism that optimizes a weighted combination of test loss,
seller privacy, and payment, i.e., strikes a balance between multiple
objectives of interest. We solve the problem by combining ideas from game
theory, statistical learning theory, and differential privacy. The buyer's
objective function can be highly non-convex. However, we show that, under
certain conditions on the problem parameters, the problem can be convexified by
using a change of variables. We also provide asymptotic results characterizing
the buyer's test error and payments when the number of sellers becomes large.
Finally, we demonstrate our ideas by applying them to a real healthcare data
set.
- Abstract(参考訳): 本研究では,プライバシに敏感な販売者から収集したデータに対してロジスティック回帰を行う問題を検討する。
データは非公開であるため、販売者は支払いを通じてインセンティブを得る必要がある。
したがって、テスト損失、売り手プライバシ、支払いの重み付けの組み合わせを最適化するメカニズムを設計すること、すなわち、複数の利害の目標間のバランスを打つことである。
我々は,ゲーム理論,統計的学習理論,微分プライバシーのアイデアを組み合わせることでこの問題を解決した。
バイヤーの目的関数は非常に非凸である。
しかし,問題パラメータの特定の条件下では,変数の変化を用いることで,問題を凸化することができることを示す。
また,販売者の数が大きくなると,購入者のテストエラーや支払いを特徴付ける漸近的な結果も提供する。
最後に、実際の医療データセットに適用することで、私たちのアイデアを実証します。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Private Optimal Inventory Policy Learning for Feature-based Newsvendor with Unknown Demand [13.594765018457904]
本稿では, f-differential privacy framework内で, プライバシ保護に最適な在庫ポリシーを推定するための新しいアプローチを提案する。
最適在庫推定のための畳み込み平滑化に基づくクリップ付き雑音勾配降下アルゴリズムを開発した。
提案手法は,コストを極端に増大させることなく,望ましいプライバシー保護を実現することができることを示す。
論文 参考訳(メタデータ) (2024-04-23T19:15:43Z) - Privacy-Preserving Federated Learning over Vertically and Horizontally
Partitioned Data for Financial Anomaly Detection [11.167661320589488]
実世界の金融異常検出シナリオでは、データは垂直と水平の両方に分割される。
我々のソリューションは、完全同型暗号化(HE)、セキュアマルチパーティ計算(SMPC)、微分プライバシー(DP)を組み合わせる。
私たちのソリューションは、米国プライバシ・エンハンシング・テクノロジーズ(PET)賞チャレンジの第1フェーズで2位を獲得しました。
論文 参考訳(メタデータ) (2023-10-30T06:51:33Z) - Refined Mechanism Design for Approximately Structured Priors via Active
Regression [50.71772232237571]
我々は、大量の商品を戦略的入札者に販売する収益を最大化する販売業者の問題を考える。
この設定の最適かつほぼ最適のメカニズムは、特徴付けや計算が難しいことで有名である。
論文 参考訳(メタデータ) (2023-10-11T20:34:17Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Semantic Information Marketing in The Metaverse: A Learning-Based
Contract Theory Framework [68.8725783112254]
仮想サービスプロバイダ(VSP)によるインセンティブのメカニズム設計の問題に対処し,センサデータ販売にIoTデバイスを採用。
帯域幅が限られているため,センサIoTデバイスによる配信データを削減するためにセマンティック抽出アルゴリズムを提案する。
本稿では,新しい反復型契約設計を提案し,マルチエージェント強化学習(MARL)の新たな変種を用いて,モデル付き多次元契約問題の解法を提案する。
論文 参考訳(メタデータ) (2023-02-22T15:52:37Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Efficient Logistic Regression with Local Differential Privacy [0.0]
モノのインターネット(Internet of Things)デバイスは急速に拡大し、大量のデータを生み出している。
これらのデバイスから収集されたデータを探索する必要性が高まっている。
コラボレーション学習は、モノのインターネット(Internet of Things)設定に戦略的ソリューションを提供すると同時に、データのプライバシに関する一般の懸念も引き起こす。
論文 参考訳(メタデータ) (2022-02-05T22:44:03Z) - Data Sharing Markets [95.13209326119153]
我々は、各エージェントがデータの買い手および売り手の両方になり得る設定について検討する。
両データ交換(データ付きトレーディングデータ)と一方データ交換(お金付きトレーディングデータ)の2つの事例を考察する。
論文 参考訳(メタデータ) (2021-07-19T06:00:34Z) - Causally Constrained Data Synthesis for Private Data Release [36.80484740314504]
原データの特定の統計特性を反映した合成データを使用することで、原データのプライバシーが保護される。
以前の作業では、正式なプライバシ保証を提供するために、差分プライベートなデータリリースメカニズムを使用していました。
トレーニングプロセスに因果情報を導入し、上記のトレードオフを好意的に修正することを提案する。
論文 参考訳(メタデータ) (2021-05-27T13:46:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。