論文の概要: Private Matrix Factorization with Public Item Features
- arxiv url: http://arxiv.org/abs/2309.11516v1
- Date: Sun, 17 Sep 2023 11:13:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 18:23:54.971798
- Title: Private Matrix Factorization with Public Item Features
- Title(参考訳): 公開アイテム特徴を用いたプライベートマトリックス因子化
- Authors: Mihaela Curmei, Walid Krichene, Li Zhang, Mukund Sundararajan
- Abstract要約: 差別化プライバシ(DP)によるトレーニングは、推奨品質の損失を犠牲にして、強力なプライバシ保証を提供する。
トレーニング中にパブリックアイテム機能を導入することで、品質の低下を軽減できることが示されています。
- 参考スコア(独自算出の注目度): 14.547931725603888
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of training private recommendation models with access
to public item features. Training with Differential Privacy (DP) offers strong
privacy guarantees, at the expense of loss in recommendation quality. We show
that incorporating public item features during training can help mitigate this
loss in quality. We propose a general approach based on collective matrix
factorization (CMF), that works by simultaneously factorizing two matrices: the
user feedback matrix (representing sensitive data) and an item feature matrix
that encodes publicly available (non-sensitive) item information.
The method is conceptually simple, easy to tune, and highly scalable. It can
be applied to different types of public item data, including: (1) categorical
item features; (2) item-item similarities learned from public sources; and (3)
publicly available user feedback. Furthermore, these data modalities can be
collectively utilized to fully leverage public data.
Evaluating our method on a standard DP recommendation benchmark, we find that
using public item features significantly narrows the quality gap between
private models and their non-private counterparts. As privacy constraints
become more stringent, models rely more heavily on public side features for
recommendation. This results in a smooth transition from collaborative
filtering to item-based contextual recommendations.
- Abstract(参考訳): 我々は,公開項目の機能にアクセス可能なプライベートレコメンデーションモデルをトレーニングする際の問題点を考察する。
差別化プライバシ(DP)によるトレーニングは、推奨品質の損失を犠牲にして、強力なプライバシー保証を提供する。
トレーニング中にパブリックなアイテム機能を組み込むことで、品質の低下を緩和できることを示します。
本稿では、ユーザフィードバック行列(センシティブなデータを表す)と、一般に利用可能な(非センシティブな)アイテム情報をエンコードするアイテム特徴行列の2つの行列を同時に分解する、集合行列分解(CMF)に基づく一般的なアプローチを提案する。
この方法は概念的にはシンプルで、チューニングが簡単で、非常にスケーラブルです。
1)分類項目の特徴,(2)公開資料から得られた項目と項目の類似性,(3)公開ユーザからのフィードバックなど,さまざまな種類の公開項目データに適用することができる。
さらに、これらのデータモダリティを集合的に利用して、公開データを完全に活用することができる。
提案手法を標準DPレコメンデーションベンチマークで評価した結果,公開項目の特徴を用いることで,プライベートモデルと非プライベートモデルとの間の品質ギャップが著しく狭まることがわかった。
プライバシーの制約が厳しくなるにつれて、モデルは推奨のためにパブリックな側面の機能に大きく依存する。
これにより、協調フィルタリングからアイテムベースのコンテクストレコメンデーションへの移行が円滑になる。
関連論文リスト
- Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Private Learning with Public Features [18.142859808011618]
個人と公共の機能の結合であるプライベートラーニングの問題のクラスについて検討する。
我々は,この分離を利用した新しいアルゴリズムを開発し,十分な統計情報のみを保護した。
論文 参考訳(メタデータ) (2023-10-24T01:59:28Z) - Decentralized Matrix Factorization with Heterogeneous Differential
Privacy [2.4743508801114444]
信頼できないリコメンデータに対して, 異種差分行列分解アルゴリズム(HDPMF)を提案する。
我々のフレームワークは、プライバシと精度のトレードオフを改善するために、革新的な再スケーリングスキームを備えた拡張ストレッチ機構を使用している。
論文 参考訳(メタデータ) (2022-12-01T06:48:18Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Privacy-preserving Non-negative Matrix Factorization with Outliers [2.84279467589473]
プライバシー保護フレームワークにおける非負行列分解アルゴリズムの開発に焦点をあてる。
プライベートデータを操作可能な非負行列分解のための新しいプライバシ保存アルゴリズムを提案する。
提案するフレームワークの性能を6つの実データ集合で示す。
論文 参考訳(メタデータ) (2022-11-02T19:42:18Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - The Stereotyping Problem in Collaboratively Filtered Recommender Systems [77.56225819389773]
行列分解に基づく協調フィルタリングアルゴリズムは,ある種のステレオタイピングを誘導することを示す。
一般のユーザ層では、テキストセットの好みが反相関性がある場合、これらの項目は、ユーザーには推奨されない。
本稿では,各ユーザの多様な利害関係を捉えるために,代替的なモデリング修正を提案する。
論文 参考訳(メタデータ) (2021-06-23T18:37:47Z) - Privacy Threats Against Federated Matrix Factorization [14.876668437269817]
連合学習フレームワークにおける行列因数分解手法のプライバシ・脅威について検討する。
本研究は,連合学習フレームワークにおける行列因数分解手法のプライバシ・脅威に関する最初の研究である。
論文 参考訳(メタデータ) (2020-07-03T09:58:52Z) - Federating Recommendations Using Differentially Private Prototypes [16.29544153550663]
生データを収集せずにグローバルおよびローカルなプライベートモデルを学習するための新しいフェデレーションアプローチを提案する。
通信を2ラウンドだけ必要とすることで、通信コストを削減し、過剰なプライバシー損失を回避することができます。
本稿では,グローバルモデルの局所的適応により,集中行列分解に基づくレコメンデータシステムモデルよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-03-01T22:21:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。