論文の概要: Protecting User Privacy in Online Settings via Supervised Learning
- arxiv url: http://arxiv.org/abs/2304.02870v1
- Date: Thu, 6 Apr 2023 05:20:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 15:16:19.649132
- Title: Protecting User Privacy in Online Settings via Supervised Learning
- Title(参考訳): 教師付き学習によるオンライン環境におけるユーザプライバシ保護
- Authors: Alexandru Rusescu, Brooke Lampe, and Weizhi Meng
- Abstract要約: 我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
- 参考スコア(独自算出の注目度): 69.38374877559423
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Companies that have an online presence-in particular, companies that are
exclusively digital-often subscribe to this business model: collect data from
the user base, then expose the data to advertisement agencies in order to turn
a profit. Such companies routinely market a service as "free", while
obfuscating the fact that they tend to "charge" users in the currency of
personal information rather than money. However, online companies also gather
user data for more principled purposes, such as improving the user experience
and aggregating statistics. The problem is the sale of user data to third
parties. In this work, we design an intelligent approach to online privacy
protection that leverages supervised learning. By detecting and blocking data
collection that might infringe on a user's privacy, we can restore a degree of
digital privacy to the user. In our evaluation, we collect a dataset of network
requests and measure the performance of several classifiers that adhere to the
supervised learning paradigm. The results of our evaluation demonstrate the
feasibility and potential of our approach.
- Abstract(参考訳): 特にオンラインプレゼンスを持つ企業は、このビジネスモデルをデジタルで購読することが多い。ユーザーベースからデータを収集し、利益を得るために広告代理店にデータを公開する。
このような企業は定期的にサービスを"無料"として販売する一方で、お金ではなく個人情報の通貨でユーザを"課金"する傾向にあるという事実を曖昧にしている。
しかし、オンライン企業はユーザーエクスペリエンスの改善や統計の集約など、より原則的な目的でユーザーデータを収集する。
問題は、サードパーティにユーザーデータを売ることだ。
本研究では、教師付き学習を活用するオンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出およびブロックすることで、ユーザに対するデジタルプライバシの程度を復元することができる。
本評価では,ネットワーク要求のデータセットを収集し,教師付き学習パラダイムに準拠した複数の分類器の性能を測定する。
評価の結果,提案手法の有効性と可能性を示した。
関連論文リスト
- FT-PrivacyScore: Personalized Privacy Scoring Service for Machine Learning Participation [4.772368796656325]
実際には、制御されたデータアクセスは、多くの産業や研究環境でデータプライバシを保護する主要な方法である。
我々は,FT-PrivacyScoreのプロトタイプを開発し,モデル微調整作業に参加する際のプライバシーリスクを効率よく定量的に推定できることを実証した。
論文 参考訳(メタデータ) (2024-10-30T02:41:26Z) - Towards a User Privacy-Aware Mobile Gaming App Installation Prediction
Model [0.8602553195689513]
本研究では,モバイルゲームアプリのインストールを需要側プラットフォームの観点から予測するプロセスについて検討する。
プライバシ保護とモデルパフォーマンスのトレードオフについて検討する。
プライバシーを意識したモデルは依然として重要な能力を保っていると結論付けている。
論文 参考訳(メタデータ) (2023-02-07T09:14:59Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Certified Data Removal in Sum-Product Networks [78.27542864367821]
収集したデータの削除は、データのプライバシを保証するのに不十分であることが多い。
UnlearnSPNは、訓練された総生産ネットワークから単一データポイントの影響を取り除くアルゴリズムである。
論文 参考訳(メタデータ) (2022-10-04T08:22:37Z) - Challenges and approaches to privacy preserving post-click conversion
prediction [3.4071263815701336]
この環境で変換モデルを学ぶ際の課題と制約について概説する。
本稿では,ポストグレード信号を利用したモデル学習手法を提案する。
実世界のデータに対してオフライン実験を用いることで、オプトインデータのみに依存するモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-29T21:36:01Z) - Preventing Unauthorized Use of Proprietary Data: Poisoning for Secure
Dataset Release [52.504589728136615]
公開したデータを最小限に修正して、他人がトレーニングモデルに乗らないようにするデータ中毒法を開発しています。
我々は,imagenet分類と顔認識によるアプローチの成功を実証する。
論文 参考訳(メタデータ) (2021-02-16T19:12:34Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - Security and Privacy Preserving Deep Learning [2.322461721824713]
ディープラーニングに必要な膨大なデータ収集は、明らかにプライバシーの問題を提示している。
写真や音声録音などの、個人的かつ高感度なデータは、収集する企業によって無期限に保持される。
深層ニューラルネットワークは、トレーニングデータに関する情報を記憶するさまざまな推論攻撃の影響を受けやすい。
論文 参考訳(メタデータ) (2020-06-23T01:53:46Z) - Utility-aware Privacy-preserving Data Releasing [7.462336024223669]
本稿では2段階の摂動に基づくプライバシー保護データ公開フレームワークを提案する。
まず、特定の事前定義されたプライバシとユーティリティの問題がパブリックドメインデータから学習される。
そして、学習した知識を活用して、データ所有者のデータを民営化したデータに正確に摂動させます。
論文 参考訳(メタデータ) (2020-05-09T05:32:46Z) - Beyond privacy regulations: an ethical approach to data usage in
transportation [64.86110095869176]
本稿では,フェデレート機械学習を交通分野に適用する方法について述べる。
フェデレートラーニングは、ユーザのプライバシを尊重しつつ、プライバシに敏感なデータを処理可能にする方法だと考えています。
論文 参考訳(メタデータ) (2020-04-01T15:10:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。