論文の概要: Robust Aggregation for Federated Sequential Recommendation with Sparse and Poisoned Data
- arxiv url: http://arxiv.org/abs/2602.23982v1
- Date: Fri, 27 Feb 2026 12:50:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.429313
- Title: Robust Aggregation for Federated Sequential Recommendation with Sparse and Poisoned Data
- Title(参考訳): スパース・ポゾンデータを用いたフェデレートシーケンスレコメンデーションのためのロバスト集約
- Authors: Minh Hieu Nguyen,
- Abstract要約: フェデレートされたシーケンシャルなレコメンデーションは、モデルトレーニングをユーザデバイスに分散することで、振る舞いデータをローカルに保ち、プライバシのリスクを低減します。
しかし、この設定には2つの困難が伴う。
個々のクライアントは通常、短くてスパースなインタラクションシーケンスにのみ貢献し、学習したユーザ表現の信頼性を制限します。
本稿では,スパース条件および逆条件下での連立推薦に適した頑健な集約フレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.9515750844111106
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated sequential recommendation distributes model training across user devices so that behavioural data remains local, reducing privacy risks. Yet, this setting introduces two intertwined difficulties. On the one hand, individual clients typically contribute only short and highly sparse interaction sequences, limiting the reliability of learned user representations. On the other hand, the federated optimisation process is vulnerable to malicious or corrupted client updates, where poisoned gradients can significantly distort the global model. These challenges are particularly severe in sequential recommendation, where temporal dynamics further complicate signal aggregation. To address this problem, we propose a robust aggregation framework tailored for federated sequential recommendation under sparse and adversarial conditions. Instead of relying on standard averaging, our method introduces a defence-aware aggregation mechanism that identifies and down-weights unreliable client updates while preserving informative signals from sparse but benign participants. The framework incorporates representation-level constraints to stabilise user and item embeddings, preventing poisoned or anomalous contributions from dominating the global parameter space. In addition, we integrate sequence-aware regularisation to maintain temporal coherence in user modelling despite limited local observations.
- Abstract(参考訳): フェデレートされたシーケンシャルなレコメンデーションは、モデルトレーニングをユーザデバイスに分散することで、振る舞いデータをローカルに保ち、プライバシのリスクを低減します。
しかし、この設定には2つの困難が伴う。
一方、個々のクライアントは通常、短くてスパースなインタラクションシーケンスにのみ貢献し、学習したユーザ表現の信頼性を制限します。
一方、フェデレート最適化プロセスは、悪意のある、あるいは腐敗したクライアントの更新に対して脆弱であり、有害な勾配がグローバルモデルを著しく歪ませる可能性がある。
これらの課題はシーケンシャルなレコメンデーションにおいて特に深刻であり、時間的ダイナミクスは信号集約をさらに複雑にする。
この問題に対処するために,スパース条件および逆条件下での連立推薦に適した頑健な集約フレームワークを提案する。
本手法では,標準平均化に代えて,信頼できないクライアントの更新を識別・ダウンウェイトし,疎外かつ良質な参加者からの情報を保存する,防衛対応アグリゲーション機構を導入する。
このフレームワークには、ユーザとアイテムの埋め込みを安定化するための表現レベルの制約が組み込まれており、有害または異常なコントリビューションがグローバルパラメータ空間を支配するのを防ぐ。
さらに、局所的な観測が限られているにもかかわらず、ユーザモデリングにおける時間的コヒーレンスを維持するためにシーケンシャル・アウェア・レギュラー化を統合する。
関連論文リスト
- A Secure and Private Distributed Bayesian Federated Learning Design [56.92336577799572]
DFL(Distributed Federated Learning)は、中央パラメータサーバを持たない大規模システム間の分散モデルトレーニングを可能にする。
DFLは、3つの重要な課題に直面している: 正直な隣人からのプライバシー漏洩、中央調整の欠如による収束の遅さ、モデルの精度の低下を目指すビザンティンの敵に対する脆弱性。
本稿では,ビザンチンの堅牢性,プライバシー保護,収束促進を統合した新しいDFLフレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-23T16:12:02Z) - Rethinking Multi-Condition DiTs: Eliminating Redundant Attention via Position-Alignment and Keyword-Scoping [61.459927600301654]
マルチコンディション制御は従来のコンカデント・アンド・アットエンドの戦略によってボトルネックとなる。
分析の結果,これらの相互作用の多くは空間的にも意味的にも冗長であることがわかった。
本稿では,これらの冗長性を解消するための高効率なフレームワークであるPKAを提案する。
論文 参考訳(メタデータ) (2026-02-06T16:39:10Z) - FedSCAM (Federated Sharpness-Aware Minimization with Clustered Aggregation and Modulation): Scam-resistant SAM for Robust Federated Optimization in Heterogeneous Environments [0.0]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散エッジデバイス間で協調的なモデルトレーニングを可能にする。
クライアント間の統計的不均一性は、しばしば非IIDラベル分布として表されるが、収束と一般化に重大な課題を生じさせる。
クライアント固有の不均一性スコアに基づいてSAM摂動半径と集約重みを動的に調整する新しいアルゴリズムである textbfFedSCAM (Federated Sharpness-Aware Minimization with Clustered Aggregation and Modulation) を提案する。
論文 参考訳(メタデータ) (2025-12-29T19:42:50Z) - Stragglers Can Contribute More: Uncertainty-Aware Distillation for Asynchronous Federated Learning [61.249748418757946]
Asynchronous Federated Learning (FL)は、その効率性とスケーラビリティの向上に注目されている。
我々は,不確実性を考慮した蒸留を組み込んだ新しいフレームワークであるFedEchoを提案し,非同期FL性能を向上する。
FedEchoが既存の非同期フェデレーション学習ベースラインを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2025-11-25T06:25:25Z) - FLARE: Adaptive Multi-Dimensional Reputation for Robust Client Reliability in Federated Learning [0.6524460254566904]
フェデレートラーニング(FL)は、データのプライバシを維持しながら協調的なモデルトレーニングを可能にする。
ビザンツの攻撃、データ中毒、あるいは適応的な敵行動を通じてモデルの完全性を侵害する悪意のあるクライアントには、依然として脆弱である。
FLAREは,クライアントの信頼性評価を二分決定から連続的多次元信頼評価に変換するアダプティブな評価ベースフレームワークである。
論文 参考訳(メタデータ) (2025-11-18T17:57:40Z) - CO-PFL: Contribution-Oriented Personalized Federated Learning for Heterogeneous Networks [51.43780477302533]
コントリビューション指向型PFL(CO-PFL)は,グローバルアグリゲーションに対する各クライアントのコントリビューションを動的に推定するアルゴリズムである。
CO-PFLは、パーソナライズ精度、堅牢性、スケーラビリティ、収束安定性において、最先端の手法を一貫して超越している。
論文 参考訳(メタデータ) (2025-10-23T05:10:06Z) - A Model-agnostic Strategy to Mitigate Embedding Degradation in Personalized Federated Recommendation [34.915843795521134]
パーソナライズされた埋め込みユーティリティを強化するための新しいモデルに依存しないFedRec戦略を提案する。
PLGCは、次元崩壊問題を緩和する連邦勧告における最初の研究である。
論文 参考訳(メタデータ) (2025-08-27T06:03:52Z) - Byzantine-Robust Federated Learning Using Generative Adversarial Networks [1.4091801425319963]
フェデレートラーニング(FL)は、生データを共有せずに分散クライアント間で協調的なモデルトレーニングを可能にするが、その堅牢性は、データやモデル中毒といったビザンチンの行動によって脅かされている。
本稿では,クライアントの更新を検証するための代表データを生成するために,サーバ上の条件付き生成逆ネットワーク(cGAN)を活用することで,これらの課題に対処する防衛フレームワークを提案する。
このアプローチは、外部データセットへの依存を排除し、多様な攻撃戦略に適応し、標準FLにシームレスに統合する。
論文 参考訳(メタデータ) (2025-03-26T18:00:56Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Asynchronous Federated Stochastic Optimization for Heterogeneous Objectives Under Arbitrary Delays [1.9766522384767224]
underlineAsynchunderlineRonous underlineExact underlineAveraging (textscAREA)
textscAREAは勾配推定よりもモデル残差を通信し、勾配反転への露出を減らす。
最初は、最低または最大ではなく、平均的なクライアント更新頻度でスケールするレートを取得しました。
論文 参考訳(メタデータ) (2024-05-16T14:22:49Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。