論文の概要: Data Sharing with Endogenous Choices over Differential Privacy Levels
- arxiv url: http://arxiv.org/abs/2602.09357v1
- Date: Tue, 10 Feb 2026 03:01:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.34389
- Title: Data Sharing with Endogenous Choices over Differential Privacy Levels
- Title(参考訳): 内因性選択によるデータ共有と差分プライバシレベル
- Authors: Raef Bassily, Kate Donahue, Diptangshu Sen, Annuo Zhao, Juba Ziani,
- Abstract要約: エージェントが不均一なプライバシコストを持つ場合、差分プライバシー下でのデータ共有のための連立形成について検討する。
私たちの目標は、どの連立が安定しているか、プライバシの選択が均衡の結果をどのように形成するかを理解することです。
- 参考スコア(独自算出の注目度): 17.063017008610206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study coalition formation for data sharing under differential privacy when agents have heterogeneous privacy costs. Each agent holds a sensitive data point and decides whether to participate in a data-sharing coalition and how much noise to add to their data. Privacy choices induce a fundamental trade-off: higher privacy reduces individual data-sharing costs but degrades data utility and statistical accuracy for the coalition. These choices generate externalities across agents, making both participation and privacy levels strategic. Our goal is to understand which coalitions are stable, how privacy choices shape equilibrium outcomes, and how decentralized data sharing compares to a centralized, socially optimal benchmark. We provide a comprehensive equilibrium analysis across a broad range of privacy-cost regimes, from decreasing costs (e.g., privacy amplification from pooling data) to increasing costs (e.g., greater exposure to privacy attacks in larger coalitions). We first characterize Nash equilibrium coalitions with endogenous privacy levels and show that equilibria may fail to exist and can be non-monotonic in problem parameters. We also introduce a weaker equilibrium notion called robust equilibrium (that allows more widespread equilibrium existence by equipping existing players in the coalition with the power to prevent or veto external players from joining) and fully characterize such equilibria. Finally, we analyze, for both Nash and robust equilibria, the efficiency relative to the social optimum in terms of social welfare and estimator accuracy. We derive bounds that depend sharply on the number of players, properties of the cost profile and how privacy costs scale with coalition size.
- Abstract(参考訳): エージェントが不均一なプライバシコストを持つ場合、差分プライバシー下でのデータ共有のための連立形成について検討する。
各エージェントは、センシティブなデータポイントを保持し、データ共有アライアンスに参加するかどうかと、データに追加するノイズの量を決定する。
プライバシの向上は個々のデータ共有コストを削減しますが、データユーティリティと連立の統計的精度を低下させます。
これらの選択はエージェント間の外部性を生み出し、参加とプライバシレベルの両方を戦略的にする。
私たちのゴールは、どの連立が安定しているか、プライバシの選択が均衡結果をどのように形成するか、分散データ共有が集中的かつ社会的に最適なベンチマークと比較するかを理解することです。
我々は、コストの削減(例えば、データのプールからプライバシーを増幅するなど)からコストの増大(例えば、より大きな連立政権におけるプライバシー攻撃への露出の拡大)まで、幅広いプライバシーコスト体制の包括的な均衡分析を提供する。
まず、内因性プライバシレベルとナッシュ均衡連立を特徴付け、平衡が存在せず、問題パラメータにおいて非単調であることを示す。
また、ロバスト均衡というより弱い均衡概念を導入し、そのような均衡を完全に特徴づける。
最後に、ナッシュとロバスト均衡の両面において、社会的福祉と推定者の正確性の観点から、社会的最適性に対する効率性について分析する。
プレイヤーの数、コストプロファイルの特性、そしてプライバシーコストが連合規模でどのようにスケールするかに大きく依存する境界を導出します。
関連論文リスト
- Multi-Hop Privacy Propagation for Differentially Private Federated Learning in Social Networks [1.5653612447564105]
フェデレート学習は、ローカルデータを共有することなく、分散クライアント間で協調的なモデルトレーニングを可能にする。
クライアントのプライバシ損失は、そのプライバシ保護戦略だけでなく、他者のプライバシ決定にも依存する。
本稿では,間接的プライバシー漏洩を体系的に定量化する,社会的に認識されたプライバシー保護FL機構を提案する。
論文 参考訳(メタデータ) (2025-08-11T06:53:32Z) - Privacy-Preserving Dataset Combination [1.0485433579460999]
SecureKLは、プライバシリークをゼロとしたデータセットからデータセット評価のためのプロトコルである。
SecureKLはソースデータセットを候補に対して評価し、プライベートな計算で内部的にデータセット分散メトリクスを実行する。
現実世界のデータでは、SecureKLは高い一貫性(90%以上の非民間データとの相関関係)を実現し、有益なデータコラボレーションの特定に成功している。
論文 参考訳(メタデータ) (2025-02-09T03:54:17Z) - Bayes-Nash Generative Privacy Against Membership Inference Attacks [24.330984323956173]
本稿では, プライバシ保護をゲーム理論でモデル化する枠組みを, ディフェンダーとアタッカーのベイズゲームとして提案する。
戦略的複雑さに対処するため、私たちは、プライベートデータセットを公開表現にマッピングするニューラルネットワークジェネレータとして、ディフェンダーの混合戦略を表現します。
当社のアプローチは,より強力な攻撃を発生させ,より優れたプライバシ・ユーティリティ・トレードオフを実現することによって,最先端の手法を著しく上回ります。
論文 参考訳(メタデータ) (2024-10-09T20:29:04Z) - Libertas: Privacy-Preserving Collective Computation for Decentralised Personal Data Stores [18.91869691495181]
モジュールアーキテクチャであるLibertasを導入し、MPCとSolidのようなPSDを統合する。
我々は、全知的な視点から、個人ベースの、ユーザ中心の信頼とセキュリティへのパラダイムシフトを紹介します。
論文 参考訳(メタデータ) (2023-09-28T12:07:40Z) - Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Spending Privacy Budget Fairly and Wisely [7.975975942400017]
差分プライベート(DP)合成データ生成は、データへのアクセスを改善するための実用的な方法である。
DP固有の問題のひとつは、"プライバシ予算"が一般的に、データセットの機能間で均等に"発効"していることだ。
我々は,DPデータに基づいてトレーニングされたモデルの予測精度を最大化するために,プライバシー予算を「賢明に」配布するアンサンブル手法を開発した。
論文 参考訳(メタデータ) (2022-04-27T13:13:56Z) - Data Sharing Markets [95.13209326119153]
我々は、各エージェントがデータの買い手および売り手の両方になり得る設定について検討する。
両データ交換(データ付きトレーディングデータ)と一方データ交換(お金付きトレーディングデータ)の2つの事例を考察する。
論文 参考訳(メタデータ) (2021-07-19T06:00:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。