論文の概要: Privacy Limitations Of Interest-based Advertising On The Web: A
Post-mortem Empirical Analysis Of Google's FLoC
- arxiv url: http://arxiv.org/abs/2201.13402v6
- Date: Thu, 13 Oct 2022 20:44:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 14:35:56.305546
- Title: Privacy Limitations Of Interest-based Advertising On The Web: A
Post-mortem Empirical Analysis Of Google's FLoC
- Title(参考訳): Web上の興味に基づく広告のプライバシー制限:GoogleのFLoCに関する実証的研究
- Authors: Alex Berke and Dan Calacci
- Abstract要約: 2020年、GoogleはChromeブラウザでサードパーティ製のクッキーを無効にし、ユーザーのプライバシーを改善すると発表した。
2022年、FLoCを実地試験でテストした後、Googleはこの提案をほとんど説明せずにキャンセルした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In 2020, Google announced it would disable third-party cookies in the Chrome
browser to improve user privacy. In order to continue to enable interest-based
advertising while mitigating risks of individualized user tracking, Google
proposed FLoC. The FLoC algorithm assigns users to "cohorts" that represent
groups of users with similar browsing behaviors so that ads can be served to
users based on their cohort. In 2022, after testing FLoC in a real world trial,
Google canceled the proposal with little explanation. In this work, we provide
a post-mortem analysis of two critical privacy risks for FloC by applying an
implementation of FLoC to a browsing dataset collected from over 90,000 U.S.
devices over a one year period. First, we show how, contrary to its privacy
goals, FLoC would have enabled cross-site user tracking by providing a unique
identifier for users available across sites, similar to the third-party cookies
FLoC was meant to be an improvement over. We show how FLoC cohort ID sequences
observed over time can provide this identifier to trackers, even with
third-party cookies disabled. We estimate the number of users in our dataset
that could be uniquely identified by FLoC IDs is more than 50% after 3 weeks
and more than 95% after 4 weeks. We also show how these risks increase when
cohort data are combined with browser fingerprinting, and how our results
underestimate the true risks FLoC would have posed in a real-world deployment.
Second, we examine the risk of FLoC leaking sensitive demographic information.
Although we find statistically significant differences in browsing behaviors
between demographic groups, we do not find that FLoC significantly risks
exposing race or income information about users in our dataset. Our
contributions provide insights and example analyses for future approaches that
seek to protect user privacy while monetizing the web.
- Abstract(参考訳): 2020年、googleはユーザーのプライバシーを改善するためにchromeブラウザでサードパーティのクッキーを無効にすることを発表した。
個人化されたユーザー追跡のリスクを軽減しつつ、興味に基づく広告を引き続き有効にするため、GoogleはFLoCを提案した。
flocアルゴリズムはユーザーに対して、類似したブラウジング行動を持つユーザーのグループを表す「コホート」を割り当て、コホートに基づいて広告をユーザーに提供できるようにする。
2022年、FLoCを実地試験でテストした後、Googleはこの提案をほとんど説明せずにキャンセルした。
本稿では,米国9万台以上のデバイスから1年間に収集したブラウジングデータセットにfracの実装を適用することで,fracの2つの重要なプライバシーリスクの反省後分析を行う。
まず、そのプライバシの目標に反して、fracはサイト間で利用可能なユーザに対してユニークな識別子を提供することで、クロスサイトユーザトラッキングを可能にしたことを示します。
FLoCコホートIDシーケンスが、サードパーティクッキーを無効にしても、この識別子をトラッカーに提供する方法を示す。
FLoC IDで一意に識別できるデータセットのユーザ数は、3週間後に50%以上、4週間後に95%以上と見積もっています。
また、コホートデータとブラウザのフィンガープリントを組み合わせると、これらのリスクが増加することや、FLoCが現実世界に展開する本当のリスクを過小評価する方法も示しています。
第2に、FLoCがセンシティブな人口統計情報を漏洩するリスクについて検討する。
人口集団間での閲覧行動に統計的に有意な差が認められるが、FLoCが我々のデータセットのユーザーに関する人種や収入情報を公開するリスクを著しく負うことはない。
私たちのコントリビューションは、Webを収益化しながらユーザのプライバシを保護するための今後のアプローチに関する洞察とサンプル分析を提供しています。
関連論文リスト
- TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FheFL: Fully Homomorphic Encryption Friendly Privacy-Preserving
Federated Learning with Byzantine Users [13.924829298309415]
従来の機械学習パラダイムにおけるデータプライバシの問題を軽減するために、フェデレートラーニング(FL)技術が開発された。
次世代のFLアーキテクチャでは、モデル更新をサーバから保護するための暗号化と匿名化技術が提案されている。
本稿では,完全同型暗号(FHE)に基づく新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T11:20:00Z) - On the Robustness of Topics API to a Re-Identification Attack [6.157783777246449]
Googleは、行動広告のプライバシフレンドリな代替手段として、Topics APIフレームワークを提案した。
本稿では,Topics APIの再識別攻撃に対するロバスト性を評価する。
ユーザのプロファイルがウェブサイトのオーディエンス内でユニークである可能性が大きいため,Topics APIは緩和されるが,再識別の防止はできない。
論文 参考訳(メタデータ) (2023-06-08T10:53:48Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - User Perception and Actions Through Risk Analysis Concerning Cookies [1.2891210250935146]
対照群と実験群を比較検討した。
私たちの目標は、ユーザの知識がインターネット上のセキュリティとプライバシの好みをどう反映しているかを評価することです。
クッキーのユーザ認識,プライバシー,リスクコミュニケーションがユーザの行動に与える影響について分析した。
論文 参考訳(メタデータ) (2022-11-14T14:02:50Z) - Privacy-Preserving Online Content Moderation: A Federated Learning Use
Case [3.1925030748447747]
フェデレートラーニング(Federated Learning, FL)は、ユーザのデバイス上でローカルにトレーニングを行うMLパラダイムである。
差分プライバシー(DP)を組み込んだオンラインコンテンツモデレーションのためのプライバシー保護FLフレームワークを提案する。
提案するFLフレームワークは,DP版と非DP版の両方において,集中型アプローチに近いものとなることを示す。
論文 参考訳(メタデータ) (2022-09-23T20:12:18Z) - Unraveling the Connections between Privacy and Certified Robustness in
Federated Learning Against Poisoning Attacks [68.20436971825941]
フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための、効率的なパラダイムを提供する。
いくつかの研究により、FLは毒殺攻撃に弱いことが示されている。
ローカルユーザのプライバシを保護するため、FLは通常、差分プライベートな方法でトレーニングされる。
論文 参考訳(メタデータ) (2022-09-08T21:01:42Z) - Decepticons: Corrupted Transformers Breach Privacy in Federated Learning
for Language Models [58.631918656336005]
悪意のあるパラメータベクトルを配置することで、プライベートなユーザテキストを明らかにする新たな攻撃を提案する。
FLに対する以前の攻撃とは異なり、攻撃はTransformerアーキテクチャとトークンの埋め込みの両方の特徴を利用する。
論文 参考訳(メタデータ) (2022-01-29T22:38:21Z) - Masked LARk: Masked Learning, Aggregation and Reporting worKflow [6.484847460164177]
多くのWeb広告データフローは、ユーザの受動的クロスサイト追跡を含む。
ほとんどのブラウザは、その後のブラウザイテレーションで3PCの削除に向かっている。
本稿では,ユーザエンゲージメント測定とモデルトレーニングの集約を目的としたMasked LARkという新しい提案を提案する。
論文 参考訳(メタデータ) (2021-10-27T21:59:37Z) - Keystroke Biometrics in Response to Fake News Propagation in a Global
Pandemic [77.79066811371978]
本研究では,キーストロークバイオメトリックスを用いたコンテンツ匿名化手法の提案と解析を行う。
フェイクニュースは、特に主要なイベントにおいて、世論を操作する強力なツールとなっている。
論文 参考訳(メタデータ) (2020-05-15T17:56:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。