論文の概要: Privacy Threats Against Federated Matrix Factorization
- arxiv url: http://arxiv.org/abs/2007.01587v1
- Date: Fri, 3 Jul 2020 09:58:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 05:01:59.936512
- Title: Privacy Threats Against Federated Matrix Factorization
- Title(参考訳): Federated Matrix Factorizationに対するプライバシーの脅威
- Authors: Dashan Gao, Ben Tan, Ce Ju, Vincent W. Zheng and Qiang Yang
- Abstract要約: 連合学習フレームワークにおける行列因数分解手法のプライバシ・脅威について検討する。
本研究は,連合学習フレームワークにおける行列因数分解手法のプライバシ・脅威に関する最初の研究である。
- 参考スコア(独自算出の注目度): 14.876668437269817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Matrix Factorization has been very successful in practical recommendation
applications and e-commerce. Due to data shortage and stringent regulations, it
can be hard to collect sufficient data to build performant recommender systems
for a single company. Federated learning provides the possibility to bridge the
data silos and build machine learning models without compromising privacy and
security. Participants sharing common users or items collaboratively build a
model over data from all the participants. There have been some works exploring
the application of federated learning to recommender systems and the privacy
issues in collaborative filtering systems. However, the privacy threats in
federated matrix factorization are not studied. In this paper, we categorize
federated matrix factorization into three types based on the partition of
feature space and analyze privacy threats against each type of federated matrix
factorization model. We also discuss privacy-preserving approaches. As far as
we are aware, this is the first study of privacy threats of the matrix
factorization method in the federated learning framework.
- Abstract(参考訳): matrix factorizationは実用的な推奨アプリケーションやeコマースで非常に成功しています。
データ不足と厳格な規制のため、単一の企業でパフォーマンスレコメンデーションシステムを構築するのに十分なデータを集めるのは難しい。
フェデレーション学習は、プライバシとセキュリティを損なうことなく、データサイロをブリッジし、マシンラーニングモデルを構築することができる。
共通のユーザやアイテムを共有する参加者は,すべての参加者のデータを通じて,協力的にモデルを構築する。
協調フィルタリングシステムにおけるシステムやプライバシー問題へのフェデレーション学習の適用を探求する研究がいくつかある。
しかし、連合行列因子化におけるプライバシーの脅威は研究されていない。
本稿では,特徴空間の分割に基づくフェデレーション行列分解を3つのタイプに分類し,フェデレーション行列分解モデルに対するプライバシの脅威を分析する。
プライバシー保護のアプローチについても論じる。
私たちが知る限り、これは連合学習フレームワークにおける行列因数分解法のプライバシー上の脅威に関する最初の研究である。
関連論文リスト
- FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - PrivMVMF: Privacy-Preserving Multi-View Matrix Factorization for
Recommender Systems [0.190365714903665]
我々は、同型暗号化に基づく新しいプライバシ保存フレームワーク、プライバシ保存多視点行列分解(PrivMVMF)を提案する。
PrivMVMFはMovieLensデータセットでうまく実装され、徹底的にテストされている。
論文 参考訳(メタデータ) (2022-09-29T03:21:24Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Sotto Voce: Federated Speech Recognition with Differential Privacy
Guarantees [0.761963751158349]
音声データは収集するのに高価で、情報源に非常に敏感です。
組織が独立して自身の使用のために小さなデータセットを収集している場合が多いが、マシンラーニングの要求に対してパフォーマンスが低い場合も少なくない。
しかし、明快なデータ共有は、知的財産の喪失とデータセットに存在する個人のプライバシーの喪失という点で、非常に危険なリスクを伴っている。
論文 参考訳(メタデータ) (2022-07-16T02:48:54Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Practical and Secure Federated Recommendation with Personalized Masks [24.565751694946062]
フェデレートレコメンデーションは、プライベート分散レコメンデーションシステムの新たな概念である。
現在のレコメンデータシステムは、主に同型暗号化と差分プライバシー方式を利用している。
本稿では,新しいフェデレーション・リコメンデーション・フレームワークであるフェデレーション・マスク・マトリックス・ファクタライゼーションを提案する。
論文 参考訳(メタデータ) (2021-08-18T07:12:23Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z) - Federated Multi-view Matrix Factorization for Personalized
Recommendations [53.74747022749739]
本稿では,フェデレートされた学習フレームワークを,複数のデータソースを用いた行列分解に拡張する,フェデレートされたマルチビュー行列分解手法を提案する。
本手法では,ユーザの個人情報を中央サーバに転送することなく,マルチビューモデルを学習することができる。
論文 参考訳(メタデータ) (2020-04-08T21:07:50Z) - Federating Recommendations Using Differentially Private Prototypes [16.29544153550663]
生データを収集せずにグローバルおよびローカルなプライベートモデルを学習するための新しいフェデレーションアプローチを提案する。
通信を2ラウンドだけ必要とすることで、通信コストを削減し、過剰なプライバシー損失を回避することができます。
本稿では,グローバルモデルの局所的適応により,集中行列分解に基づくレコメンデータシステムモデルよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-03-01T22:21:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。