論文の概要: Challenges and approaches to privacy preserving post-click conversion
prediction
- arxiv url: http://arxiv.org/abs/2201.12666v1
- Date: Sat, 29 Jan 2022 21:36:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 20:00:21.733681
- Title: Challenges and approaches to privacy preserving post-click conversion
prediction
- Title(参考訳): クリック後変換予測のプライバシー保護への挑戦とアプローチ
- Authors: Conor O'Brien, Arvind Thiagarajan, Sourav Das, Rafael Barreto, Chetan
Verma, Tim Hsu, James Neufield, Jonathan J Hunt
- Abstract要約: この環境で変換モデルを学ぶ際の課題と制約について概説する。
本稿では,ポストグレード信号を利用したモデル学習手法を提案する。
実世界のデータに対してオフライン実験を用いることで、オプトインデータのみに依存するモデルよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 3.4071263815701336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online advertising has typically been more personalized than offline
advertising, through the use of machine learning models and real-time auctions
for ad targeting. One specific task, predicting the likelihood of conversion
(i.e.\ the probability a user will purchase the advertised product), is crucial
to the advertising ecosystem for both targeting and pricing ads. Currently,
these models are often trained by observing individual user behavior, but,
increasingly, regulatory and technical constraints are requiring
privacy-preserving approaches. For example, major platforms are moving to
restrict tracking individual user events across multiple applications, and
governments around the world have shown steadily more interest in regulating
the use of personal data. Instead of receiving data about individual user
behavior, advertisers may receive privacy-preserving feedback, such as the
number of installs of an advertised app that resulted from a group of users. In
this paper we outline the recent privacy-related changes in the online
advertising ecosystem from a machine learning perspective. We provide an
overview of the challenges and constraints when learning conversion models in
this setting. We introduce a novel approach for training these models that
makes use of post-ranking signals. We show using offline experiments on real
world data that it outperforms a model relying on opt-in data alone, and
significantly reduces model degradation when no individual labels are
available. Finally, we discuss future directions for research in this evolving
area.
- Abstract(参考訳): オンライン広告は、通常、オフライン広告よりもパーソナライズされ、機械学習モデルと広告ターゲティングのためのリアルタイムオークションを用いている。
特定のタスクの1つは、ターゲティングと価格の両面で広告エコシステムにおいて、変換の可能性(すなわちユーザーが広告商品を購入する可能性)を予測することである。
現在、これらのモデルは個々のユーザーの行動を観察して訓練されることが多いが、規制や技術的な制約はプライバシー保護のアプローチを必要としている。
例えば、主要なプラットフォームは、複数のアプリケーションにわたる個々のユーザーイベントの追跡を制限するよう移行しており、世界中の政府は、個人データの使用を規制することに対する関心を着実に高めている。
個々のユーザーの行動に関するデータを受け取る代わりに、広告主はプライバシーを保ったフィードバックを受け取ることができる。
本稿では,オンライン広告エコシステムにおける最近のプライバシー関連の変化について,機械学習の観点から概説する。
この設定で変換モデルを学ぶ際の課題と制約について概観する。
本稿では,ポストグレード信号を利用したモデル学習手法を提案する。
実世界のデータ上でオフライン実験を用いることで、オプトインデータのみに依存するモデルよりも優れ、個々のラベルが利用できない場合のモデル劣化を著しく低減することを示す。
最後に、この発展分野における研究の今後の方向性について論じる。
関連論文リスト
- Reach Measurement, Optimization and Frequency Capping In Targeted Online Advertising Under k-Anonymity [6.330502423961969]
周波数キャッピング(英: Frequency Capping)とは、マーケターが特定のユーザーに広告が表示される回数を制御できるようにする技術である。
本稿は、$k$匿名の文脈におけるリーチ測定と最適化の問題について述べる。
ユーザプライバシとオンラインブランド広告の有効性のトレードオフを評価する実験が実施されている。
論文 参考訳(メタデータ) (2025-01-08T23:38:19Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Towards a User Privacy-Aware Mobile Gaming App Installation Prediction
Model [0.8602553195689513]
本研究では,モバイルゲームアプリのインストールを需要側プラットフォームの観点から予測するプロセスについて検討する。
プライバシ保護とモデルパフォーマンスのトレードオフについて検討する。
プライバシーを意識したモデルは依然として重要な能力を保っていると結論付けている。
論文 参考訳(メタデータ) (2023-02-07T09:14:59Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Lessons from the AdKDD'21 Privacy-Preserving ML Challenge [57.365745458033075]
W3Cの顕著な提案では、過去のディスプレイの集計された、差別化されたプライベートなレポートを通じてのみ広告信号を共有することができる。
この提案を広く研究するために、AdKDD'21でオープンなプライバシ保護機械学習チャレンジが行われた。
重要な発見は、大量の集約されたデータの小さな集合が存在する場合の学習モデルは驚くほど効率的で安価であることである。
論文 参考訳(メタデータ) (2022-01-31T11:09:59Z) - Improving Fairness and Privacy in Selection Problems [21.293367386282902]
教師付き学習モデルの公平性とプライバシーの両方を改善するための後処理のステップとして、微分的プライベート指数関数機構を使用することの可能性を検討する。
この指数関数的メカニズムは, プライバシと公平性の両方を向上し, ポストプロセッシングを伴わないモデルと比較して, 精度がわずかに低下することを示した。
論文 参考訳(メタデータ) (2020-12-07T15:55:28Z) - Privacy Enhancing Machine Learning via Removal of Unwanted Dependencies [21.97951347784442]
本稿では,特定のアプリケーションに送信される前に,データ中のセンシティブな情報を除去する,教師付き・敵対型学習手法の新たな変種について検討する。
提案手法は,エンド・ツー・エンド方式で特徴マッピングと予測モデルを同時に保存するプライバシー保護を最適化する。
モバイルセンシングと顔データを用いた実験結果から,予測モデルの実用性能の維持に成功し,予測性能の低下を招いた。
論文 参考訳(メタデータ) (2020-07-30T19:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。