論文の概要: Masked LARk: Masked Learning, Aggregation and Reporting worKflow
- arxiv url: http://arxiv.org/abs/2110.14794v1
- Date: Wed, 27 Oct 2021 21:59:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-30 09:28:50.691157
- Title: Masked LARk: Masked Learning, Aggregation and Reporting worKflow
- Title(参考訳): masked lark: マスク学習、集約、レポートワークフロー
- Authors: Joseph J. Pfeiffer III and Denis Charles and Davis Gilton and Young
Hun Jung and Mehul Parsana and Erik Anderson
- Abstract要約: 多くのWeb広告データフローは、ユーザの受動的クロスサイト追跡を含む。
ほとんどのブラウザは、その後のブラウザイテレーションで3PCの削除に向かっている。
本稿では,ユーザエンゲージメント測定とモデルトレーニングの集約を目的としたMasked LARkという新しい提案を提案する。
- 参考スコア(独自算出の注目度): 6.484847460164177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Today, many web advertising data flows involve passive cross-site tracking of
users. Enabling such a mechanism through the usage of third party tracking
cookies (3PC) exposes sensitive user data to a large number of parties, with
little oversight on how that data can be used. Thus, most browsers are moving
towards removal of 3PC in subsequent browser iterations. In order to
substantially improve end-user privacy while allowing sites to continue to
sustain their business through ad funding, new privacy-preserving primitives
need to be introduced.
In this paper, we discuss a new proposal, called Masked LARk, for aggregation
of user engagement measurement and model training that prevents cross-site
tracking, while remaining (a) flexible, for engineering development and
maintenance, (b) secure, in the sense that cross-site tracking and tracing are
blocked and (c) open for continued model development and training, allowing
advertisers to serve relevant ads to interested users. We introduce a secure
multi-party compute (MPC) protocol that utilizes "helper" parties to train
models, so that once data leaves the browser, no downstream system can
individually construct a complete picture of the user activity. For training,
our key innovation is through the usage of masking, or the obfuscation of the
true labels, while still allowing a gradient to be accurately computed in
aggregate over a batch of data. Our protocol only utilizes light cryptography,
at such a level that an interested yet inexperienced reader can understand the
core algorithm. We develop helper endpoints that implement this system, and
give example usage of training in PyTorch.
- Abstract(参考訳): 今日、多くのウェブ広告データフローは、ユーザーの受動的クロスサイト追跡を伴う。
このようなメカニズムをサードパーティ追跡クッキー(3PC)の使用によって実現することで,機密性の高いユーザデータを多数のパーティに公開することが可能になる。
したがって、ほとんどのブラウザは、その後のブラウザイテレーションで3PCの削除に向かっている。
エンドユーザのプライバシーを大幅に改善し、サイトが広告資金を通じてビジネスを継続できるようにするためには、新たなプライバシー保護プリミティブを導入する必要がある。
本稿では,ユーザエンゲージメント計測とモデルトレーニングを集約し,サイト間トラッキングを防止し,残ることを目的とした新しい提案である masked lark について述べる。
(a)フレキシブルで、技術開発及び保守のため。
b) クロスサイト追跡とトレースがブロックされるという意味では、セキュアである
c) モデル開発とトレーニングを継続し、広告主が関連する広告を興味のあるユーザーに提供できるようにする。
本稿では,"ヘルパー"パーティをモデルに利用するセキュアなマルチパーティ計算(mpc)プロトコルを導入することで,データがブラウザから出ると,ダウンストリームシステムがユーザアクティビティの全体像を個別に構築できないようにする。
トレーニングのための重要なイノベーションは、マスキング(マスキング)や真のラベルの難読化(obfuscation of the true labels)によるものです。
我々のプロトコルは光暗号のみを利用しており、興味のない読者がコアアルゴリズムを理解することができる。
このシステムを実装するヘルパーエンドポイントを開発し、PyTorchでのトレーニングの例を示す。
関連論文リスト
- FP-Fed: Privacy-Preserving Federated Detection of Browser Fingerprinting [10.671588861099323]
ブラウザの指紋認証は、Web上のユーザを追跡するサードパーティ製のクッキーの、魅力的な代替手段だ。
以前の研究では、その有病率と重症度を検出するためのいくつかの手法が提案されていた。
ブラウザ指紋検出のための最初の分散システムであるFP-Fedを提案する。
論文 参考訳(メタデータ) (2023-11-28T16:43:17Z) - Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - PURL: Safe and Effective Sanitization of Link Decoration [20.03929841111819]
PURLは、Webページ実行の層間グラフ表現を利用して、リンクの装飾を安全かつ効果的に衛生化する機械学習手法である。
評価の結果,PURLは既存の対策よりも精度が高く,ウェブサイトの破損を低減できることがわかった。
論文 参考訳(メタデータ) (2023-08-07T09:08:39Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Privacy-Preserving Online Content Moderation: A Federated Learning Use
Case [3.1925030748447747]
フェデレートラーニング(Federated Learning, FL)は、ユーザのデバイス上でローカルにトレーニングを行うMLパラダイムである。
差分プライバシー(DP)を組み込んだオンラインコンテンツモデレーションのためのプライバシー保護FLフレームワークを提案する。
提案するFLフレームワークは,DP版と非DP版の両方において,集中型アプローチに近いものとなることを示す。
論文 参考訳(メタデータ) (2022-09-23T20:12:18Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - Gradient Disaggregation: Breaking Privacy in Federated Learning by
Reconstructing the User Participant Matrix [12.678765681171022]
連合学習におけるモデル更新の集約は安全でない可能性があることを示す。
信頼できない中央サーバは、参加者間のアップデートの合計からユーザ更新を分離することができる。
我々の攻撃は、学習したプロパティの個々のユーザへの属性を許容し、匿名性を侵害する。
論文 参考訳(メタデータ) (2021-06-10T23:55:28Z) - Fidel: Reconstructing Private Training Samples from Weight Updates in
Federated Learning [0.0]
フェデレーション学習における新しい攻撃手法を評価し,第1次ディセンス層攻撃(Fidel)と名付けた。
完全接続されたニューラルネットワークを用いて、クライアントのモデル更新から30個のプライベートデータサンプルのうち20個を平均して復元する方法を示す。
論文 参考訳(メタデータ) (2021-01-01T04:00:23Z) - Federated Learning of User Authentication Models [69.93965074814292]
機械学習モデルのプライバシー保護のためのフレームワークであるFederated User Authentication (FedUA)を提案する。
FedUAは、フェデレートされた学習フレームワークを採用して、ユーザが生の入力を共有することなく、共同でモデルをトレーニングできるようにする。
提案手法はプライバシ保護であり,多数のユーザに対してスケーラブルであることを示し,出力層を変更することなく,新たなユーザをトレーニングに追加できるようにした。
論文 参考訳(メタデータ) (2020-07-09T08:04:38Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。