論文の概要: Data Leakage via Access Patterns of Sparse Features in Deep
Learning-based Recommendation Systems
- arxiv url: http://arxiv.org/abs/2212.06264v1
- Date: Mon, 12 Dec 2022 22:05:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 15:51:44.805650
- Title: Data Leakage via Access Patterns of Sparse Features in Deep
Learning-based Recommendation Systems
- Title(参考訳): 深層学習に基づく推薦システムにおけるスパース特徴のアクセスパターンによるデータ漏洩
- Authors: Hanieh Hashemi, Wenjie Xiong, Liu Ke, Kiwan Maeng, Murali Annavaram,
G. Edward Suh, Hsien-Hsin S. Lee
- Abstract要約: 最先端のレコメンデーションモデルは、ユーザのプロファイル情報を表現するために、疎密な機能に依存している。
本稿では、レコメンデーションモデルのスパースな特徴アクセスパターンを追跡することによって学習される可能性のあるプライベート情報について検討する。
- 参考スコア(独自算出の注目度): 10.657479921108287
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Online personalized recommendation services are generally hosted in the cloud
where users query the cloud-based model to receive recommended input such as
merchandise of interest or news feed. State-of-the-art recommendation models
rely on sparse and dense features to represent users' profile information and
the items they interact with. Although sparse features account for 99% of the
total model size, there was not enough attention paid to the potential
information leakage through sparse features. These sparse features are employed
to track users' behavior, e.g., their click history, object interactions, etc.,
potentially carrying each user's private information. Sparse features are
represented as learned embedding vectors that are stored in large tables, and
personalized recommendation is performed by using a specific user's sparse
feature to index through the tables. Even with recently-proposed methods that
hides the computation happening in the cloud, an attacker in the cloud may be
able to still track the access patterns to the embedding tables. This paper
explores the private information that may be learned by tracking a
recommendation model's sparse feature access patterns. We first characterize
the types of attacks that can be carried out on sparse features in
recommendation models in an untrusted cloud, followed by a demonstration of how
each of these attacks leads to extracting users' private information or
tracking users by their behavior over time.
- Abstract(参考訳): オンラインパーソナライズドレコメンデーションサービスは一般にクラウドにホストされ、ユーザーはクラウドベースのモデルに問い合わせて商品やニュースフィードなどの推奨入力を受け取る。
最先端のレコメンデーションモデルは、ユーザのプロファイル情報とそれらが対話するアイテムを表現するために、疎密な機能に依存しています。
スパース機能はモデル全体の99%を占めるが、スパース機能による潜在的な情報漏洩には十分な注意が払われていなかった。
これらのスパース機能は、クリック履歴やオブジェクトのインタラクションなど、ユーザの振る舞いを追跡するために使われ、各ユーザのプライベート情報を運ぶ可能性がある。
スパース機能は大きなテーブルに格納された学習された埋め込みベクターとして表現され、パーソナライズされたレコメンデーションは、特定のユーザのスパース機能を使用してテーブルをインデックス化する。
クラウドで発生する計算を隠蔽する最近提案された方法であっても、クラウドの攻撃者は埋め込みテーブルへのアクセスパターンを追跡することができる。
本稿では,レコメンデーションモデルのスパース機能アクセスパターンを追跡することで学習できるプライベート情報について検討する。
まず,信頼できないクラウド内のレコメンデーションモデルのスパース機能上で実施可能な攻撃の種類を特徴付け,次に,これらの攻撃がユーザの個人情報の抽出や,ユーザの行動の追跡にどのようにつながるかをデモする。
関連論文リスト
- Personalized Language Model Learning on Text Data Without User Identifiers [79.36212347601223]
ユーザの埋め込みを動的に生成するために,各モバイルデバイスがユーザ固有の分布を維持することを提案する。
クラウドがアップロードされた埋め込みを通じてユーザを追跡するのを防ぐために、異なるユーザのローカルディストリビューションは、線形依存空間から導出されるべきである。
パブリックデータセットとインダストリアルデータセットの両方の評価では、匿名ユーザ埋め込みの導入による精度の大幅な向上が示されている。
論文 参考訳(メタデータ) (2025-01-10T15:46:19Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Learning User Embeddings from Human Gaze for Personalised Saliency Prediction [12.361829928359136]
本稿では,自然画像のペアと対応する相性マップからユーザ埋め込みを抽出する新しい手法を提案する。
提案手法のコアとなるのは,異なるユーザのイメージと個人満足度マップのペアを対比することにより,ユーザの埋め込みを学習する,シームズ畳み込みニューラルエンコーダである。
論文 参考訳(メタデータ) (2024-03-20T14:58:40Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Learning Location from Shared Elevation Profiles in Fitness Apps: A
Privacy Perspective [14.886240385518716]
本研究では,ユーザの位置を予測するために,標高プロファイルがどの程度用いられるかを検討する。
我々は、ターゲットの市や区を予測できる3つの確実な脅威設定を考案する。
我々は59.59%から99.80%の予測成功率を達成した。
論文 参考訳(メタデータ) (2022-10-27T15:15:13Z) - Federated Learning of User Authentication Models [69.93965074814292]
機械学習モデルのプライバシー保護のためのフレームワークであるFederated User Authentication (FedUA)を提案する。
FedUAは、フェデレートされた学習フレームワークを採用して、ユーザが生の入力を共有することなく、共同でモデルをトレーニングできるようにする。
提案手法はプライバシ保護であり,多数のユーザに対してスケーラブルであることを示し,出力層を変更することなく,新たなユーザをトレーニングに追加できるようにした。
論文 参考訳(メタデータ) (2020-07-09T08:04:38Z) - Privacy-Preserving Image Features via Adversarial Affine Subspace
Embeddings [72.68801373979943]
多くのコンピュータビジョンシステムでは、ユーザーは画像処理とストレージのためにイメージ機能をクラウドにアップロードする必要がある。
本稿では,新しいプライバシー保護機能表現を提案する。
従来の特徴と比較すると,敵が個人情報を回収するのは極めて困難である。
論文 参考訳(メタデータ) (2020-06-11T17:29:48Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z) - Privacy Shadow: Measuring Node Predictability and Privacy Over Time [1.2437226707039446]
ネットワーク内の任意の時間からユーザがいつまで予測されるかを測定するために,プライバシシャドウを提案する。
実世界の3つのデータセットにおいて、個々のユーザに対して、プライバシシャドーの長さを予測できることを実証する。
論文 参考訳(メタデータ) (2020-04-04T23:31:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。