論文の概要: The Privacy-Utility Trade-off in the Topics API
- arxiv url: http://arxiv.org/abs/2406.15309v1
- Date: Fri, 21 Jun 2024 17:01:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 12:34:06.773146
- Title: The Privacy-Utility Trade-off in the Topics API
- Title(参考訳): トピックAPIにおけるプライバシとユーティリティのトレードオフ
- Authors: Mário S. Alvim, Natasha Fernandes, Annabelle McIver, Gabriel H. Nunes,
- Abstract要約: 我々は、各インターネットユーザに対する再識別リスクと広告会社に提供するユーティリティについて、トピックスAPIを用いて分析する。
将来的なAPI更新のプライバシと実用性を評価するために、容易に適用可能なAPIパラメータのみに依存する理論的結果を提供する。
- 参考スコア(独自算出の注目度): 0.34952465649465553
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The ongoing deprecation of third-party cookies by web browser vendors has sparked the proposal of alternative methods to support more privacy-preserving personalized advertising on web browsers and applications. The Topics API is being proposed by Google to provide third-parties with "coarse-grained advertising topics that the page visitor might currently be interested in". In this paper, we analyze the re-identification risks for individual Internet users and the utility provided to advertising companies by the Topics API, i.e. learning the most popular topics and distinguishing between real and random topics. We provide theoretical results dependent only on the API parameters that can be readily applied to evaluate the privacy and utility implications of future API updates, including novel general upper-bounds that account for adversaries with access to unknown, arbitrary side information, the value of the differential privacy parameter $\epsilon$, and experimental results on real-world data that validate our theoretical model.
- Abstract(参考訳): Webブラウザベンダによるサードパーティ製クッキーの非推奨化が続く中で、Webブラウザやアプリケーション上で、よりプライバシーを保護したパーソナライズされた広告をサポートする方法が提案されている。
Topics APIは、Googleによって「ページ訪問者が現在興味を持っているかもしれない、粗いきめ細かい広告トピック」を提供するように提案されている。
本稿では,各インターネットユーザに対する再識別リスクと広告会社に提供するユーティリティをトピックAPIを用いて分析し,最も人気のあるトピックを学習し,現実とランダムなトピックを区別する。
我々は、未知の任意の側情報にアクセスする敵を考慮に入れた新しい一般的な上限、差分プライバシーパラメータ$\epsilon$の値、我々の理論モデルを検証する実世界のデータに対する実験結果など、将来のAPI更新のプライバシと実用性について簡単に評価できるAPIパラメータのみに依存する理論的結果を提供する。
関連論文リスト
- Evaluating Google's Protected Audience Protocol [7.737740676767729]
Googleは、サードパーティのクッキーを使わずに広告ターゲティングを可能にする、Privacy Sandboxイニシアチブを提案した。
本研究は,Protected Audience提案で提案されている報告メカニズムのリンクプライバシーリスクの分析に焦点をあてる。
論文 参考訳(メタデータ) (2024-05-13T18:28:56Z) - A Public and Reproducible Assessment of the Topics API on Real Data [1.1510009152620668]
Topics API for the Webは、サードパーティのクッキーに代わる、Googleのプライバシ向上のためのAPIだ。
以前の作業の結果、ユーティリティとプライバシの両方をトレードオフするトピクスの能力に関する議論が続いている。
本稿では,Topicsがすべてのユーザに対して同じプライバシー保証を提供していない,情報漏洩が時間とともに悪化する,という実データについて述べる。
論文 参考訳(メタデータ) (2024-03-28T17:03:44Z) - Summary Reports Optimization in the Privacy Sandbox Attribution Reporting API [51.00674811394867]
Attribution Reporting APIは、Google Chromeがアトリビューションレポートの基本的な広告機能をサポートするためにデプロイしたものだ。
本稿では,API からの要約報告に対して,コントリビューション予算の配分を最適化する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T18:45:20Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - A Quantitative Information Flow Analysis of the Topics API [0.34952465649465553]
トピックスAPIが導入した個々のインターネットユーザに対する再識別リスクを,情報と意思決定の枠組みの観点から分析する。
私たちのモデルは、APIのプライバシとユーティリティの両方の側面とトレードオフに関する理論的分析を可能にし、Topics APIがサードパーティのクッキーよりも優れたプライバシを持つことを示す。
論文 参考訳(メタデータ) (2023-09-26T08:14:37Z) - On the Robustness of Topics API to a Re-Identification Attack [6.157783777246449]
Googleは、行動広告のプライバシフレンドリな代替手段として、Topics APIフレームワークを提案した。
本稿では,Topics APIの再識別攻撃に対するロバスト性を評価する。
ユーザのプロファイルがウェブサイトのオーディエンス内でユニークである可能性が大きいため,Topics APIは緩和されるが,再識別の防止はできない。
論文 参考訳(メタデータ) (2023-06-08T10:53:48Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Cross-Network Social User Embedding with Hybrid Differential Privacy
Guarantees [81.6471440778355]
プライバシー保護方式でユーザを包括的に表現するために,ネットワーク横断型ソーシャルユーザ埋め込みフレームワークDP-CroSUEを提案する。
特に、各異種ソーシャルネットワークに対して、異種データ型に対するプライバシー期待の変化を捉えるために、まずハイブリッドな差分プライバシーの概念を導入する。
ユーザ埋め込みをさらに強化するため、新しいネットワーク間GCN埋め込みモデルは、それらの整列したユーザを介して、ネットワーク間で知識を伝達するように設計されている。
論文 参考訳(メタデータ) (2022-09-04T06:22:37Z) - Lessons from the AdKDD'21 Privacy-Preserving ML Challenge [57.365745458033075]
W3Cの顕著な提案では、過去のディスプレイの集計された、差別化されたプライベートなレポートを通じてのみ広告信号を共有することができる。
この提案を広く研究するために、AdKDD'21でオープンなプライバシ保護機械学習チャレンジが行われた。
重要な発見は、大量の集約されたデータの小さな集合が存在する場合の学習モデルは驚くほど効率的で安価であることである。
論文 参考訳(メタデータ) (2022-01-31T11:09:59Z) - Is Downloading this App Consistent with my Values? Conceptualizing a
Value-Centered Privacy Assistant [0.0]
データプライバシの決定は、ユーザ値の表現として理解できる、と提案する。
さらに,価値中心型プライバシアシスタント(VcPA)の開発を提案する。
論文 参考訳(メタデータ) (2021-06-23T15:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。