論文の概要: PrivacyGo: Privacy-Preserving Ad Measurement with Multidimensional Intersection
- arxiv url: http://arxiv.org/abs/2506.20981v1
- Date: Thu, 26 Jun 2025 03:54:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.962655
- Title: PrivacyGo: Privacy-Preserving Ad Measurement with Multidimensional Intersection
- Title(参考訳): プライバシGo:多次元切断によるプライバシー保護広告計測
- Authors: Jian Du, Haohao Qian, Shikun Zhang, Wen-jie Lu, Donghang Lu, Yongchuan Niu, Bo Jiang, Yongjun Zhao, Qiang Yan,
- Abstract要約: 本稿では,プライバシ保護広告計測のためのユーザプロファイルマッチングの多元化の問題に対処する。
本稿では,Oblivious Pseudorom Function (OPRF) と新しいブラインド鍵回転技術を活用した包括的暗号フレームワークを提案する。
我々の設計では、クロスアイデンティティーリンクが防止され、交差点サイズを難読化するための微分プライベートなメカニズムが組み込まれている。
- 参考スコア(独自算出の注目度): 20.83651553126354
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper tackles the challenging and practical problem of multi-identifier private user profile matching for privacy-preserving ad measurement, a cornerstone of modern advertising analytics. We introduce a comprehensive cryptographic framework leveraging reversed Oblivious Pseudorandom Functions (OPRF) and novel blind key rotation techniques to support secure matching across multiple identifiers. Our design prevents cross-identifier linkages and includes a differentially private mechanism to obfuscate intersection sizes, mitigating risks such as membership inference attacks. We present a concrete construction of our protocol that achieves both strong privacy guarantees and high efficiency. It scales to large datasets, offering a practical and scalable solution for privacy-centric applications like secure ad conversion tracking. By combining rigorous cryptographic principles with differential privacy, our work addresses a critical need in the advertising industry, setting a new standard for privacy-preserving ad measurement frameworks.
- Abstract(参考訳): 本稿では,現代広告分析の基盤であるプライバシー保護広告計測のための,多元認証型プライベートユーザプロファイルマッチングの課題と実践的課題に対処する。
我々は,複数の識別子にまたがるセキュアなマッチングをサポートするために,Oblivious Pseudorom Function (OPRF) と新しいブラインドキーローテーション技術を活用した包括的な暗号フレームワークを提案する。
本設計では,クロス・アイデンティティー・リンケージを防止し,交点サイズを曖昧化し,メンバシップ・推論攻撃などのリスクを軽減するために,差分的にプライベートな機構を備える。
プライバシー保証と高効率の両立を実現するためのプロトコルの具体的構築について述べる。
大規模なデータセットにスケールし、セキュアな広告コンバージョントラッキングのようなプライバシ中心のアプリケーションに対して、実用的でスケーラブルなソリューションを提供する。
厳格な暗号化原則と差分プライバシーを組み合わせることで、当社の仕事は広告業界における重要なニーズに対処し、プライバシー保護の広告測定フレームワークの新たな標準を設定します。
関連論文リスト
- Shielding Latent Face Representations From Privacy Attacks [8.251076234961632]
埋め込みのための多層保護フレームワークを提案する。
a) 完全同型暗号化(FHE)を用いた埋め込み、(b) 可逆な特徴多様体ハッシュを用いてそれらをハッシュする。
従来の暗号化方法とは異なり、FHEは暗号化データ上で直接計算を可能にし、強力なプライバシー保証を維持しながら、ダウンストリーム分析を可能にする。
論文 参考訳(メタデータ) (2025-05-19T04:23:16Z) - Privacy in Fine-tuning Large Language Models: Attacks, Defenses, and Future Directions [11.338466798715906]
細調整された大規模言語モデル(LLM)は、様々な領域で最先端のパフォーマンスを達成することができる。
本稿では、微調整LDMに関連するプライバシー問題に関する包括的調査を行う。
メンバーシップ推論、データ抽出、バックドア攻撃など、さまざまなプライバシ攻撃に対する脆弱性を強調します。
論文 参考訳(メタデータ) (2024-12-21T06:41:29Z) - Privacy-Enhanced Adaptive Authentication: User Profiling with Privacy Guarantees [0.6554326244334866]
本稿では,プライバシ強化型アダプティブ認証プロトコルを提案する。
リアルタイムリスクアセスメントに基づいて認証要求を動的に調整する。
CCPAなどのデータ保護規則を遵守することにより,セキュリティを向上するだけでなく,ユーザの信頼も向上する。
論文 参考訳(メタデータ) (2024-10-27T19:11:33Z) - Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Decentralized Matrix Factorization with Heterogeneous Differential
Privacy [2.4743508801114444]
信頼できないリコメンデータに対して, 異種差分行列分解アルゴリズム(HDPMF)を提案する。
我々のフレームワークは、プライバシと精度のトレードオフを改善するために、革新的な再スケーリングスキームを備えた拡張ストレッチ機構を使用している。
論文 参考訳(メタデータ) (2022-12-01T06:48:18Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。