論文の概要: Does Ad-Free Mean Less Data Collection? An Empirical Study of Platform Data Practices and User Expectations
- arxiv url: http://arxiv.org/abs/2602.01231v1
- Date: Sun, 01 Feb 2026 13:46:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.670405
- Title: Does Ad-Free Mean Less Data Collection? An Empirical Study of Platform Data Practices and User Expectations
- Title(参考訳): 広告のないデータ収集は少ないか? : プラットフォームデータ実践とユーザ期待に関する実証的研究
- Authors: Sepehr Mousavi, Abhisek Dash, Savvas Zannettou, Krishna P. Gummadi,
- Abstract要約: プラットフォームデータ収集プラクティスと関連するユーザ期待との整合性について検討する。
調査の結果,参加者の69%がデータ収集の削減を期待していることがわかった。
以上の結果から,データプラクティスとユーザの期待を著しく切り離すことが示唆された。
- 参考スコア(独自算出の注目度): 6.986930655208371
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online platforms increasingly offer "paid" ad-free subscriptions as an alternative to the traditional "free" ad-based model. The transition to ad-free models ostensibly removes advertising as a key justification for data processing under the GDPR. So, normatively, platforms should collect less user data. However, platforms may justify continued data collection as a means to provide an improved, personalized experience. This tension between privacy principles and platform incentives raises a critical underexplored question: do data collection practices vary between ad-free and ad-based subscription models? In this paper, we shed light on this important privacy issue by investigating the alignment between platform data collection practices and related user expectations. With respect to data collection process, our analyses of data exports from three major online platforms - Instagram, Facebook, and X - reveal that these platforms continue to retain or collect some ad-related data, even in ad-free subscriptions. With respect to user expectations, our survey among 255 participants on Prolific reveals that 69% of the participants normatively expect data collection to be reduced, indicating their expectation of improved digital privacy in an ad-free model. However, when asked what they think actually happens, 63% of these participants believed that platforms would still collect about the same amount of data, highlighting skepticism about platform practices. Our findings not only indicate a significant disconnect between data practices and normative user expectations, but also raise serious questions about platform compliance with core GDPR principles, such as purpose limitation, data minimization, and transparency.
- Abstract(参考訳): オンラインプラットフォームは、伝統的な「無料」広告ベースのモデルに代わる「有料」広告フリーサブスクリプションを提供する傾向にある。
広告のないモデルへの移行は、GDPRの下でのデータ処理を正当化する鍵となる広告を取り除きつつある。
つまり、通常、プラットフォームはユーザーデータの収集を減らすべきである。
しかし、プラットフォームは、改善されたパーソナライズされたエクスペリエンスを提供する手段として、継続的なデータ収集を正当化するかもしれない。
このプライバシー原則とプラットフォームインセンティブの緊張は、重要な未解決の疑問を提起する。データ収集のプラクティスは、広告のないサブスクリプションモデルと広告ベースのサブスクリプションモデルの間で異なるのか?
本稿では,プラットフォームデータ収集プラクティスと関連するユーザ期待との整合性を検討することで,この重要なプライバシー問題に光を当てる。
データ収集プロセスに関して、Instagram、Facebook、Xの3つの主要なオンラインプラットフォームからのデータエクスポートの分析は、広告のないサブスクリプションであっても、これらのプラットフォームが広告関連のデータを保持または収集し続けることを明らかにしている。
Prolificの255人の参加者を対象にした調査では、データ収集が標準的に減少することを69%が期待しており、広告のないモデルでデジタルプライバシの改善を期待していることが判明した。
しかし、実際に何が起こるかと尋ねられた参加者の63%は、プラットフォームが依然として同じ量のデータを収集し、プラットフォームプラクティスに対する懐疑的な点を強調していると信じていた。
私たちの調査結果は、データプラクティスと規範的ユーザの期待とを著しく切り離すだけでなく、目的の制限、データ最小化、透明性といったGDPRの中核原則へのプラットフォームコンプライアンスに関する深刻な疑問を引き起こします。
関連論文リスト
- Data Acquisition: A New Frontier in Data-centric AI [65.90972015426274]
まず、現在のデータマーケットプレースを調査し、データセットに関する詳細な情報を提供するプラットフォームが不足していることを明らかにする。
次に、データプロバイダと取得者間のインタラクションをモデル化するベンチマークであるDAMチャレンジを紹介します。
提案手法の評価は,機械学習における効果的なデータ取得戦略の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-11-22T22:15:17Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Towards a User Privacy-Aware Mobile Gaming App Installation Prediction
Model [0.8602553195689513]
本研究では,モバイルゲームアプリのインストールを需要側プラットフォームの観点から予測するプロセスについて検討する。
プライバシ保護とモデルパフォーマンスのトレードオフについて検討する。
プライバシーを意識したモデルは依然として重要な能力を保っていると結論付けている。
論文 参考訳(メタデータ) (2023-02-07T09:14:59Z) - The Fair Value of Data Under Heterogeneous Privacy Constraints in
Federated Learning [26.53734856637336]
本稿では,公正性の公理的定義に基づいて,ユーザのプライバシレベルでデータを補償するtextitfairの量を提案する。
また、ユーザのためのプライバシレベルオプションを備えたプラットフォームに対して、不均一なフェデレーション付き学習問題を定式化します。
論文 参考訳(メタデータ) (2023-01-30T23:51:03Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Lessons from the AdKDD'21 Privacy-Preserving ML Challenge [57.365745458033075]
W3Cの顕著な提案では、過去のディスプレイの集計された、差別化されたプライベートなレポートを通じてのみ広告信号を共有することができる。
この提案を広く研究するために、AdKDD'21でオープンなプライバシ保護機械学習チャレンジが行われた。
重要な発見は、大量の集約されたデータの小さな集合が存在する場合の学習モデルは驚くほど効率的で安価であることである。
論文 参考訳(メタデータ) (2022-01-31T11:09:59Z) - Challenges and approaches to privacy preserving post-click conversion
prediction [3.4071263815701336]
この環境で変換モデルを学ぶ際の課題と制約について概説する。
本稿では,ポストグレード信号を利用したモデル学習手法を提案する。
実世界のデータに対してオフライン実験を用いることで、オプトインデータのみに依存するモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-29T21:36:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。