論文の概要: Beyond Per-Querier Budgets: Rigorous and Resilient Global Privacy Enforcement for the W3C Attribution API
- arxiv url: http://arxiv.org/abs/2506.05290v2
- Date: Tue, 14 Oct 2025 16:20:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 21:19:14.939459
- Title: Beyond Per-Querier Budgets: Rigorous and Resilient Global Privacy Enforcement for the W3C Attribution API
- Title(参考訳): クエリ毎の予算を超える - W3C属性APIの厳格で回復力のあるグローバルプライバシ強化
- Authors: Pierre Tholoniat, Alison Caulfield, Giorgio Cavicchioli, Mark Chen, Nikos Goutzoulias, Benjamin Case, Asaf Cidon, Roxana Geambasu, Mathias Lécuyer, Martin Thomson,
- Abstract要約: 我々は、プライバシー保護広告測定のためのW3C標準であるAttribution APIのプライバシー保証を分析する。
個人, 伝統的DPのいずれにおいても, クエリごとの会計方式は適応性に乏しいことが示されている。
私たちは、この保証を強制するAttribution APIのプライバシー予算マネージャであるBig Birdを紹介します。
- 参考スコア(独自算出の注目度): 4.495613544672561
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We analyze the privacy guarantees of the Attribution API, an upcoming W3C standard for privacy-preserving advertising measurement. Its central guarantee--separate individual differential privacy (IDP) budgets per querier--proves unsound once data adaptivity across queriers is considered, a condition we argue is unavoidable in practice. The issue lies not with IDP or its device-epoch unit, but with the per-querier enforcement model, which has also appeared in other DP systems; we show formally that no per-querier accounting scheme, under either individual or traditional DP, remains sound under adaptivity, a gap missed by prior analyses. By contrast, a global device-epoch IDP guarantee remains sound, and we introduce Big Bird, a privacy budget manager for the Attribution API that enforces this guarantee. The challenge is that a global budget shared across many untrusted queriers creates denial-of-service (DoS) risks, undermining utility. Building on prior work that treats global budgets as a computing resource, we adapt resource isolation and scheduling techniques to the constraints of IDP, embedding DoS resilience into the budget management layer. Our Rust implementation with Firefox integration, evaluated on real-world ad data, shows that Big Bird supports benign workloads while mitigating DoS risks. Still, achieving both utility and robustness requires global budgets to be configured more loosely than per-site budgets; we therefore recommend that the Attribution API continue using tight per-site budgets but clarify their limited formal meaning, and complement them with global budgets tuned for benign load with added slack for DoS resilience.
- Abstract(参考訳): 我々は、プライバシー保護広告測定のためのW3C標準であるAttribution APIのプライバシー保証を分析する。
クエリー毎に個別の差分プライバシー(IDP)予算を分離することで、クエリー間のデータ適応性が考慮されれば、その保証は不可能だ、と私たちが主張する条件は、実際は避けられない。
この問題は、IDPやそのデバイスエポックユニットに限らず、他のDPシステムにも現れるクエリごとの執行モデルにも関係している。
対照的に、グローバルデバイス時代のIDP保証は引き続き健全であり、この保証を強制するAttribution APIのプライバシ予算マネージャであるBig Birdを紹介します。
課題は、信頼できない多くのクエリー間で共有されるグローバルな予算がサービス拒否(DoS)リスクを生み出し、ユーティリティーを損なうことだ。
グローバル予算をコンピューティングリソースとして扱う先行作業に基づいて,IDPの制約にリソース分離とスケジューリング技術を適用し,予算管理層にDoSレジリエンスを組み込む。
実世界の広告データに基づいて評価されたFirefoxとの統合によるRustの実装は、Big BirdがDoSリスクを軽減しつつ、良質なワークロードをサポートすることを示している。
それでも、実用性とロバスト性の両方を達成するためには、サイトごとの予算よりもグローバルな予算を緩やかに設定する必要がある。そのため、Attribution APIは、サイト毎の予算を厳格に使用し続けるが、その限定的な形式的意味を明確にし、DoSレジリエンスのためのスラックを追加して、良質な負荷に合わせたグローバルな予算を補完することを推奨する。
関連論文リスト
- Breaking the Gaussian Barrier: Residual-PAC Privacy for Automatic Privatization [25.387857775660855]
本稿では,逆推定後に残るプライバシを定量化する f-divergence ベースの尺度である Residual PAC Privacy を紹介する。
また,最適な雑音分布を選択するゲーム理論であるRPACプライバシーのための,Stackelberg Residual-PAC(SR-PAC)の民営化機構を提案する。
論文 参考訳(メタデータ) (2025-06-06T20:52:47Z) - Optimal Allocation of Privacy Budget on Hierarchical Data Release [48.96399034594329]
本稿では,階層データリリースにおける最適プライバシ予算割り当ての問題に対処する。
データの粒度とプライバシー損失のトレードオフを考慮しつつ、全プライバシー予算の対象となるデータユーティリティの最大化を目指している。
論文 参考訳(メタデータ) (2025-05-16T05:25:11Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Cookie Monster: Efficient On-device Budgeting for Differentially-Private Ad-Measurement Systems [3.0175040505598707]
本稿では、既存のプライバシー保護広告計測APIを強化する取り組みについて述べる。
Google、Apple、Meta、Mozillaのデザインを分析し、より厳格で効率的な差分プライバシー(DP)予算コンポーネントでそれらを強化します。
われわれのアプローチはCookie Monsterと呼ばれ、よく定義されたDP保証を強制し、広告主がよりプライベートな測定クエリを正確に実行できるようにする。
論文 参考訳(メタデータ) (2024-05-26T23:27:27Z) - Privacy-Preserving Billing for Local Energy Markets [1.1823918493146686]
本稿では,地域エネルギー市場(PBP-LEM)に対するプライバシ保護請求プロトコルを提案する。
PBP-LEMにより、市場団体のグループは、正しさを犠牲にすることなく、分散的でプライバシー保護的な方法で参加者の請求書を共同で計算することができる。
論文 参考訳(メタデータ) (2024-04-24T14:12:56Z) - Chained-DP: Can We Recycle Privacy Budget? [18.19895364709435]
本稿では,ユーザが順次データアグリゲーションを実行し,プライバシ予算を再利用することのできる,新しいChained-DPフレームワークを提案する。
逐次ゲームの数学的性質を示し、そのナッシュ平衡を解き、証明可能な経済特性を持つインセンティブメカニズムを設計する。
提案手法の有効性を数値シミュレーションにより検証し,従来のLPP機構と比較して,プライバシ予算の大幅な削減と推定誤差の低減を図った。
論文 参考訳(メタデータ) (2023-09-12T08:07:59Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Rethinking Disclosure Prevention with Pointwise Maximal Leakage [36.3895452861944]
本稿では,秘密の$X$の低エントロピー機能の価値を開示し,実用性を実現するユーティリティとプライバシの一般モデルを提案する。
我々は、大衆の意見に反して、有意義な推論によるプライバシー保証を提供することを証明している。
PMLベースのプライバシは互換性があることを示し、差分プライバシーのような既存の概念に対する洞察を提供する。
論文 参考訳(メタデータ) (2023-03-14T10:47:40Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。