論文の概要: Learn to Preserve Personality: Federated Foundation Models in Recommendations
- arxiv url: http://arxiv.org/abs/2506.11563v1
- Date: Fri, 13 Jun 2025 08:17:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.714265
- Title: Learn to Preserve Personality: Federated Foundation Models in Recommendations
- Title(参考訳): パーソナリティの保存を学ぶ:推薦におけるフェデレーションモデル
- Authors: Zhiwei Li, Guodong Long, Chunxu Zhang, Honglei Zhang, Jing Jiang, Chengqi Zhang,
- Abstract要約: フェデレーション・ファンデーション・モデル(FFM)は、共有知識を個々の特定の適応から切り離す構造的手段を提供する。
我々は、パーソナライズされたFMを利用して、コンテンツのユーザー決定を導く未来のパーソナルエージェントを構想する。
- 参考スコア(独自算出の注目度): 36.85043146335166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A core learning challenge for existed Foundation Models (FM) is striking the tradeoff between generalization with personalization, which is a dilemma that has been highlighted by various parameter-efficient adaptation techniques. Federated foundation models (FFM) provide a structural means to decouple shared knowledge from individual specific adaptations via decentralized processes. Recommendation systems offer a perfect testbed for FFMs, given their reliance on rich implicit feedback reflecting unique user characteristics. This position paper discusses a novel learning paradigm where FFMs not only harness their generalization capabilities but are specifically designed to preserve the integrity of user personality, illustrated thoroughly within the recommendation contexts. We envision future personal agents, powered by personalized adaptive FMs, guiding user decisions on content. Such an architecture promises a user centric, decentralized system where individuals maintain control over their personalized agents.
- Abstract(参考訳): ファウンデーションモデル(FM)における中核的な学習課題は、一般化とパーソナライゼーションのトレードオフであり、様々なパラメータ効率の適応技術によって強調されてきたジレンマである。
フェデレーション・ファンデーション・モデル(FFM)は、共有知識を分散プロセスを通じて個々の特定の適応から切り離す構造的な手段を提供する。
ユニークなユーザ特性を反映した暗黙のフィードバックに頼っているため、推奨システムはFFMに完璧なテストベッドを提供する。
本稿では、FFMが一般化能力を利用するだけでなく、ユーザのパーソナリティの整合性を維持するために特別に設計された、レコメンデーションコンテキスト内で徹底的に図示される新しい学習パラダイムについて論じる。
我々は、パーソナライズされたFMを利用して、コンテンツのユーザー決定を導く未来のパーソナルエージェントを構想する。
このようなアーキテクチャは、個人がパーソナライズされたエージェントを制御できる、ユーザ中心の分散システムを実現する。
関連論文リスト
- Towards Artificial General or Personalized Intelligence? A Survey on Foundation Models for Personalized Federated Intelligence [59.498447610998525]
大規模言語モデル(LLM)の台頭は、人工知能の展望を大きく変えた。
本稿では、プライバシーと効率性を維持しつつ、ユーザの特定のニーズと嗜好を満たすためにこれらの強力なモデルを適用することに焦点を当てる。
我々は、FMのゼロショット一般化機能にフェデレート学習のプライバシー保護の利点を統合する、パーソナライズド・フェデレーション・インテリジェンス(PFI)を提案する。
論文 参考訳(メタデータ) (2025-05-11T08:57:53Z) - Federated Adapter on Foundation Models: An Out-Of-Distribution Approach [42.31209296544899]
ファインチューンフェデレーションモデル(FedFM)に対するプライバシ保護手法を提案する。
FedOAは、アダプタベースのパラメータチューニング方式を採用し、分散に距離ベースの正規化を導入し、各クライアントに対してOODの一般化を保証する。
論文 参考訳(メタデータ) (2025-05-02T07:33:00Z) - LoRe: Personalizing LLMs via Low-Rank Reward Modeling [47.12507639759984]
本稿では,低ランク嗜好モデルを利用してユーザ固有の報酬関数を効率的に学習し,一般化する新しいフレームワークを提案する。
提案手法を複数の選好データセット上で検証し、未確認ユーザに対して優れた一般化を示し、選好予測タスクの精度を改善した。
論文 参考訳(メタデータ) (2025-04-20T01:16:24Z) - Personalized Recommendation Models in Federated Settings: A Survey [32.46278932694137]
フェデレートされたレコメンデーションシステム(FedRecSys)は、プライバシを認識したレコメンデーションのための重要なソリューションとして登場した。
現在の研究は、伝統的なレコメンデーションアーキテクチャを連邦環境に適用することに集中している。
この分散化および非IIDデータ設定において、不均一な嗜好を捉えるのに欠かせないユーザパーソナライズモデリングは、まだ未検討である。
論文 参考訳(メタデータ) (2025-03-10T09:20:20Z) - Personalized Federated Learning with Adaptive Feature Aggregation and Knowledge Transfer [0.0]
フェデレートラーニング(FL)は、分散データ上で単一のモデルを生成するための、プライバシ保護機械学習パラダイムとして人気がある。
適応的特徴集約と知識伝達(FedAFK)による個人化学習手法を提案する。
広範に使われている2つの不均一な条件下で3つのデータセットについて広範な実験を行い、提案手法が13の最先端ベースラインに対して優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-19T11:32:39Z) - Personalized Federated Collaborative Filtering: A Variational AutoEncoder Approach [49.63614966954833]
Federated Collaborative Filtering (FedCF)は、プライバシを保護する新しいレコメンデーションフレームワークの開発に焦点を当てた新興分野である。
既存のFedCFメソッドは通常、分散協調フィルタリング(CF)アルゴリズムとプライバシ保護メカニズムを組み合わせて、パーソナライズされた情報をユーザ埋め込みベクタに保存する。
本稿では,ユーザのパーソナライズされた情報を潜在変数とニューラルモデルに同時に保存することで,新たなパーソナライズされたFedCF手法を提案する。
論文 参考訳(メタデータ) (2024-08-16T05:49:14Z) - Personalized Language Modeling from Personalized Human Feedback [45.16986573937782]
パーソナライズされた大規模言語モデル(LLM)は、個々のユーザの好みに応答するように設計されている。
個人の好みを捉えるために軽量なユーザモデルを利用する効率的なフレームワークであるPersonalized-RLHFを提案する。
P-RLHF を用いて学習したパーソナライズされた LLM は,個々のユーザの好みとより密に一致した応答を生成する。
論文 参考訳(メタデータ) (2024-02-06T04:18:58Z) - FediOS: Decoupling Orthogonal Subspaces for Personalization in
Feature-skew Federated Learning [6.076894295435773]
パーソナライズド・フェデレーションド・ラーニング(pFL)では、クライアントは異種データ(非IIDとも呼ばれる)を持つことがある。
FediOSでは、デカップリングを2つの特徴抽出器(ジェネリックとパーソナライズ)と1つの共有予測ヘッドに再構成する。
さらに、共有予測ヘッドは、推論中のジェネリック機能とパーソナライズ機能の重要性のバランスをとるために訓練される。
論文 参考訳(メタデータ) (2023-11-30T13:50:38Z) - Learning to Specialize: Joint Gating-Expert Training for Adaptive MoEs in Decentralized Settings [41.98633628526484]
Mixture-of-Experts (MoEs)は、コンポーネントのサブセットを動的に活性化することでスケーラビリティを実現する。
推論コストとデータヘテロジニティにより、ゲーティング関数と専門家の協調トレーニングがドメイン固有の専門知識を割り当てる方法について検討する。
論文 参考訳(メタデータ) (2023-06-14T15:47:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。