論文の概要: Towards a User Privacy-Aware Mobile Gaming App Installation Prediction
Model
- arxiv url: http://arxiv.org/abs/2302.03332v1
- Date: Tue, 7 Feb 2023 09:14:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 17:01:26.002197
- Title: Towards a User Privacy-Aware Mobile Gaming App Installation Prediction
Model
- Title(参考訳): ユーザプライバシを意識したモバイルゲームアプリインストール予測モデルの実現に向けて
- Authors: Ido Zehori, Nevo Itzhak, Yuval Shahar and Mia Dor Schiller
- Abstract要約: 本研究では,モバイルゲームアプリのインストールを需要側プラットフォームの観点から予測するプロセスについて検討する。
プライバシ保護とモデルパフォーマンスのトレードオフについて検討する。
プライバシーを意識したモデルは依然として重要な能力を保っていると結論付けている。
- 参考スコア(独自算出の注目度): 0.8602553195689513
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over the past decade, programmatic advertising has received a great deal of
attention in the online advertising industry. A real-time bidding (RTB) system
is rapidly becoming the most popular method to buy and sell online advertising
impressions. Within the RTB system, demand-side platforms (DSP) aim to spend
advertisers' campaign budgets efficiently while maximizing profit, seeking
impressions that result in high user responses, such as clicks or installs. In
the current study, we investigate the process of predicting a mobile gaming app
installation from the point of view of a particular DSP, while paying attention
to user privacy, and exploring the trade-off between privacy preservation and
model performance. There are multiple levels of potential threats to user
privacy, depending on the privacy leaks associated with the data-sharing
process, such as data transformation or de-anonymization. To address these
concerns, privacy-preserving techniques were proposed, such as cryptographic
approaches, for training privacy-aware machine-learning models. However, the
ability to train a mobile gaming app installation prediction model without
using user-level data, can prevent these threats and protect the users'
privacy, even though the model's ability to predict may be impaired.
Additionally, current laws might force companies to declare that they are
collecting data, and might even give the user the option to opt out of such
data collection, which might threaten companies' business models in digital
advertising, which are dependent on the collection and use of user-level data.
We conclude that privacy-aware models might still preserve significant
capabilities, enabling companies to make better decisions, dependent on the
privacy-efficacy trade-off utility function of each case.
- Abstract(参考訳): 過去10年間、プログラム型広告はオンライン広告業界で大きな注目を集めてきた。
リアルタイム入札(RTB)システムは、オンライン広告インプレッションを売買する最も一般的な方法になりつつある。
RTBシステム内では、需要側プラットフォーム(DSP)は、広告主のキャンペーン予算を効率よく消費し、利益を最大化し、クリックやインストールのような高いユーザー反応をもたらすインプレッションを求める。
本研究では,モバイルゲームアプリのインストールを特定のDSPの観点から予測し,ユーザのプライバシに注意を払って,プライバシ保護とモデルパフォーマンスのトレードオフを探るプロセスについて検討する。
データ変換や匿名化など、データ共有プロセスに関連するプライバシリークに依存するため、ユーザプライバシに対する潜在的な脅威には、さまざまなレベルがあります。
これらの懸念に対処するため、プライバシーを意識した機械学習モデルをトレーニングするための暗号アプローチのようなプライバシー保護技術が提案された。
しかし、ユーザレベルのデータを使用しないモバイルゲームアプリのインストール予測モデルをトレーニングする能力は、予測能力に障害があったとしても、これらの脅威を防止し、ユーザのプライバシを保護することができる。
さらに、現在の法律では、企業はデータ収集を宣言し、ユーザーレベルのデータの収集と利用に依存するデジタル広告における企業のビジネスモデルを脅かすようなデータ収集からオプトアウトするオプションをユーザーに与えることさえあるかもしれない。
プライバシを意識したモデルは依然として重要な機能を保持しており、企業はそれぞれのケースのプライバシー効率のトレードオフユーティリティ機能に依存して、より良い意思決定をすることができる。
関連論文リスト
- FT-PrivacyScore: Personalized Privacy Scoring Service for Machine Learning Participation [4.772368796656325]
実際には、制御されたデータアクセスは、多くの産業や研究環境でデータプライバシを保護する主要な方法である。
我々は,FT-PrivacyScoreのプロトタイプを開発し,モデル微調整作業に参加する際のプライバシーリスクを効率よく定量的に推定できることを実証した。
論文 参考訳(メタデータ) (2024-10-30T02:41:26Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Can Language Models be Instructed to Protect Personal Information? [30.187731765653428]
シミュレーションシナリオにおいて、モデルが特定の個人情報のカテゴリを保護するように指示されたとき、プライバシ/ユーティリティトレードオフを評価するためのベンチマークであるPrivQAを紹介します。
我々は,テキストや画像入力による単純なジェイルブレイク手法により,敵が容易にこれらの保護を回避できることを見出した。
PrivQAは、プライバシー保護を改善した新しいモデルの開発と、これらの保護の敵意的な堅牢性をサポートする可能性があると考えています。
論文 参考訳(メタデータ) (2023-10-03T17:30:33Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Challenges and approaches to privacy preserving post-click conversion
prediction [3.4071263815701336]
この環境で変換モデルを学ぶ際の課題と制約について概説する。
本稿では,ポストグレード信号を利用したモデル学習手法を提案する。
実世界のデータに対してオフライン実験を用いることで、オプトインデータのみに依存するモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-29T21:36:01Z) - Preventing Unauthorized Use of Proprietary Data: Poisoning for Secure
Dataset Release [52.504589728136615]
公開したデータを最小限に修正して、他人がトレーニングモデルに乗らないようにするデータ中毒法を開発しています。
我々は,imagenet分類と顔認識によるアプローチの成功を実証する。
論文 参考訳(メタデータ) (2021-02-16T19:12:34Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。