論文の概要: SecEmb: Sparsity-Aware Secure Federated Learning of On-Device Recommender System with Large Embedding
- arxiv url: http://arxiv.org/abs/2505.12453v2
- Date: Sat, 07 Jun 2025 14:39:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 21:10:46.987723
- Title: SecEmb: Sparsity-Aware Secure Federated Learning of On-Device Recommender System with Large Embedding
- Title(参考訳): SecEmb: 大規模埋め込みによるデバイス上のレコメンダシステムのスポーサリティを考慮したセキュアなフェデレーション学習
- Authors: Peihua Mai, Youlong Ding, Ziyan Lyu, Minxin Du, Yan Pang,
- Abstract要約: フェデレートされたレコメンデータシステム(FedRec)は、協調トレーニング技術を通じてユーザデータを保護するソリューションとして登場した。
典型的なFedRecでは、エッジデバイスとサーバ間で完全なモデルと全体の重み付け更新を送信します。
既存のスパシティ対応のフェデレーションプロトコルは、一般的に効率性のためにプライバシを犠牲にする。
- 参考スコア(独自算出の注目度): 3.2226173328807253
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated recommender system (FedRec) has emerged as a solution to protect user data through collaborative training techniques. A typical FedRec involves transmitting the full model and entire weight updates between edge devices and the server, causing significant burdens to devices with limited bandwidth and computational power. While the sparsity of embedding updates provides opportunity for payload optimization, existing sparsity-aware federated protocols generally sacrifice privacy for efficiency. A key challenge in designing a secure sparsity-aware efficient protocol is to protect the rated item indices from the server. In this paper, we propose a lossless secure recommender systems on sparse embedding updates (SecEmb). SecEmb reduces user payload while ensuring that the server learns no information about both rated item indices and individual updates except the aggregated model. The protocol consists of two correlated modules: (1) a privacy-preserving embedding retrieval module that allows users to download relevant embeddings from the server, and (2) an update aggregation module that securely aggregates updates at the server. Empirical analysis demonstrates that SecEmb reduces both download and upload communication costs by up to 90x and decreases user-side computation time by up to 70x compared with secure FedRec protocols. Additionally, it offers non-negligible utility advantages compared with lossy message compression methods.
- Abstract(参考訳): フェデレートされたレコメンデータシステム(FedRec)は、協調トレーニング技術を通じてユーザデータを保護するソリューションとして登場した。
典型的なFedRecでは、エッジデバイスとサーバ間で完全なモデルと全体の重み付け更新を送信し、帯域幅と計算能力に制限のあるデバイスに多大な負担をかける。
組み込み更新の幅はペイロード最適化の機会を提供するが、既存のスパシティ対応のフェデレーションプロトコルは、一般的に効率性のためにプライバシを犠牲にする。
セキュアな疎結合を意識した効率的なプロトコルを設計する上で重要な課題は、評価項目のインデックスをサーバから保護することである。
本稿では,sparse Embedding Update (SecEmb) における損失のないセキュアなレコメンデーションシステムを提案する。
SecEmbは、サーバが集計されたモデルを除いて、評価項目のインデックスと個々の更新に関する情報を学習しないことを保証しながら、ユーザのペイロードを削減する。
本プロトコルは,(1) ユーザがサーバから関連する埋め込みをダウンロード可能なプライバシー保護型埋め込み検索モジュール,(2) サーバの更新を安全に集約する更新集約モジュールの2つの関連モジュールから構成される。
実証分析によると、SecEmbは、セキュアなFedRecプロトコルと比較して、ダウンロードとアップロードの両方の通信コストを最大90倍削減し、ユーザ側の計算時間を最大70倍削減する。
さらに、損失のあるメッセージ圧縮方法と比較して、無視できないユーティリティのアドバンテージを提供する。
関連論文リスト
- Fundamental Limits of Hierarchical Secure Aggregation with Cyclic User Association [93.46811590752814]
階層的なセキュアな集約は、連合学習によって動機づけられる。
本稿では,各ユーザが連続する$B$のリレーに接続される循環型アソシエーションパターンを用いたHSAについて考察する。
本稿では、勾配符号化にインスパイアされた入力に対するメッセージ設計を含む効率的なアグリゲーション手法を提案する。
論文 参考訳(メタデータ) (2025-03-06T15:53:37Z) - A Universal Framework for Compressing Embeddings in CTR Prediction [68.27582084015044]
本稿では,事前学習した埋め込みを定量化することにより,埋め込みテーブルを圧縮するモデル非依存型埋め込み圧縮(MEC)フレームワークを提案する。
まず、高頻度特徴と低周波特徴のバランスをとるために、人気重み付け正規化を適用します。
3つのデータセットの実験により,提案手法はメモリ使用量を50倍以上削減し,レコメンデーション性能を維持・改善する。
論文 参考訳(メタデータ) (2025-02-21T10:12:34Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Robust and Actively Secure Serverless Collaborative Learning [48.01929996757643]
コラボレーティブ機械学習(ML)は、分散データからより良いモデルを学ぶために広く利用されている。
学習のための協調的なアプローチは、直感的にユーザデータを保護しますが、サーバ、クライアント、あるいはその両方に対して脆弱なままです。
本稿では、悪意のあるサーバに対してセキュアで、悪意のあるクライアントに対して堅牢なピアツーピア学習方式を提案する。
論文 参考訳(メタデータ) (2023-10-25T14:43:03Z) - Reconstructing Individual Data Points in Federated Learning Hardened
with Differential Privacy and Secure Aggregation [36.95590214441999]
Federated Learning(FL)は、機械学習モデルを共同でトレーニングするためのフレームワークである。
分散微分プライバシー(DDP)とセキュアアグリゲーション(SA)で保護されたFLに対する攻撃を提案する。
論文 参考訳(メタデータ) (2023-01-09T18:12:06Z) - Reconciling Security and Communication Efficiency in Federated Learning [11.653872280157321]
クロスデバイスフェデレーション学習は、ますます人気のある機械学習環境である。
本稿では,クライアント・サーバ間のモデル更新を圧縮する問題を形式化し,解決する。
我々は、セキュアなフェデレートラーニング(Federated Learning)セットアップでLEAFベンチマークの最先端結果を確立し、アップリンク通信において最大40$times$圧縮を行う。
論文 参考訳(メタデータ) (2022-07-26T09:52:55Z) - Towards Bidirectional Protection in Federated Learning [70.36925233356335]
F2ED-LEARNINGは、悪意のある集中型サーバとビザンティンの悪意のあるクライアントに対して双方向の防御を提供する。
F2ED-LEARNINGは各シャードの更新を安全に集約し、異なるシャードからの更新に対してFilterL2を起動する。
評価の結果,F2ED-LEARNing は最適あるいは最適に近い性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-02T19:37:02Z) - FastSecAgg: Scalable Secure Aggregation for Privacy-Preserving Federated
Learning [18.237186837994585]
セキュアアグリゲーション'プロトコルは、サーバがクライアントのモデルをプライバシ保護方法で集約することを可能にする。
FastSecAggは計算と通信の面で効率的であり、クライアントのドロップアウトに対して堅牢である。
論文 参考訳(メタデータ) (2020-09-23T16:49:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。