論文の概要: Federated Recommendation via Hybrid Retrieval Augmented Generation
- arxiv url: http://arxiv.org/abs/2403.04256v1
- Date: Thu, 7 Mar 2024 06:38:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 14:52:48.317860
- Title: Federated Recommendation via Hybrid Retrieval Augmented Generation
- Title(参考訳): ハイブリッド検索拡張生成によるフェデレーションレコメンデーション
- Authors: Huimin Zeng, Zhenrui Yue, Qian Jiang, Dong Wang
- Abstract要約: Federated Recommendation (FR)は、プライバシ保護のレコメンデーションを可能にする。
推薦者としての大きな言語モデル(LLM)は、様々なレコメンデーションシナリオで有効であることが証明されている。
GPT-FedRecは,ChatGPTと新しいハイブリッド検索拡張生成(RAG)機構を利用した,連合型レコメンデーションフレームワークである。
- 参考スコア(独自算出の注目度): 16.228589300933262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Recommendation (FR) emerges as a novel paradigm that enables
privacy-preserving recommendations. However, traditional FR systems usually
represent users/items with discrete identities (IDs), suffering from
performance degradation due to the data sparsity and heterogeneity in FR. On
the other hand, Large Language Models (LLMs) as recommenders have proven
effective across various recommendation scenarios. Yet, LLM-based recommenders
encounter challenges such as low inference efficiency and potential
hallucination, compromising their performance in real-world scenarios. To this
end, we propose GPT-FedRec, a federated recommendation framework leveraging
ChatGPT and a novel hybrid Retrieval Augmented Generation (RAG) mechanism.
GPT-FedRec is a two-stage solution. The first stage is a hybrid retrieval
process, mining ID-based user patterns and text-based item features. Next, the
retrieved results are converted into text prompts and fed into GPT for
re-ranking. Our proposed hybrid retrieval mechanism and LLM-based re-rank aims
to extract generalized features from data and exploit pretrained knowledge
within LLM, overcoming data sparsity and heterogeneity in FR. In addition, the
RAG approach also prevents LLM hallucination, improving the recommendation
performance for real-world users. Experimental results on diverse benchmark
datasets demonstrate the superior performance of GPT-FedRec against
state-of-the-art baseline methods.
- Abstract(参考訳): Federated Recommendation (FR)は、プライバシ保護レコメンデーションを可能にする新しいパラダイムとして登場した。
しかし、従来のFRシステムは、データ空間とFRの不均一性による性能劣化に苦しむ、個々のIDを持つユーザ/イテムを表すのが一般的である。
一方、レコメンデータとしてのLarge Language Models(LLM)は、さまざまなレコメンデーションシナリオで有効であることが証明されている。
しかし、llmベースのレコメンダは、低い推論効率や潜在的な幻覚といった課題に遭遇し、現実のシナリオでのパフォーマンスを損なう。
そこで本研究では,ChatGPTと新しいハイブリッド検索拡張生成(RAG)機構を活用した,協調推薦フレームワークであるGPT-FedRecを提案する。
GPT-FedRecは2段階のソリューションである。
第1段階は、idベースのユーザーパターンとテキストベースのアイテム特徴をマイニングするハイブリッド検索プロセスである。
次に、検索した結果をテキストプロンプトに変換し、再ランク付けのためにGPTに入力する。
提案したハイブリッド検索機構とLLMに基づく再ランクは,データから一般化された特徴を抽出し,LLM内の事前学習知識を活用することを目的としている。
さらに、RAGアプローチはLLM幻覚を防止し、現実世界のユーザのためのレコメンデーションパフォーマンスを向上させる。
多様なベンチマークデータセットの実験結果から,GPT-FedRecの最先端のベースライン手法に対する優れた性能を示す。
関連論文リスト
- Towards LLM-RecSys Alignment with Textual ID Learning [48.018397048791115]
我々は,各項目を一意で簡潔で,意味的にリッチで,プラットフォームに依存しないテキストIDとして表現するIDGenを提案する。
標準実験条件下では,IDGen が既存のモデルを常に上回り,逐次レコメンデーションすることを示す。
その結果、事前訓練された基礎モデルのゼロショット性能は、従来のレコメンデーションモデルに匹敵するか、それ以上に優れていることが示された。
論文 参考訳(メタデータ) (2024-03-27T21:22:37Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - FedRec+: Enhancing Privacy and Addressing Heterogeneity in Federated
Recommendation Systems [15.463595798992621]
FedRec+は、フェデレーションレコメンデーションシステムのためのアンサンブルフレームワークである。
プライバシーを強化し、エッジユーザの通信コストを低減します。
FedRec+の最先端性能を示す実験結果が得られた。
論文 参考訳(メタデータ) (2023-10-31T05:36:53Z) - LlamaRec: Two-Stage Recommendation using Large Language Models for
Ranking [10.671747198171136]
ランキングベースレコメンデーション(LlamaRec)のための大規模言語モデルを用いた2段階フレームワークを提案する。
特に,ユーザインタラクション履歴に基づいて候補を検索するために,小規模なシーケンシャルレコメンデータを用いる。
LlamaRecは、推奨パフォーマンスと効率の両方において、データセットの優れたパフォーマンスを一貫して達成している。
論文 参考訳(メタデータ) (2023-10-25T06:23:48Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - Is ChatGPT Fair for Recommendation? Evaluating Fairness in Large
Language Model Recommendation [52.62492168507781]
LLM(FaiRLLM)を用いたFairness of Recommendationと呼ばれる新しいベンチマークを提案する。
このベンチマークは、慎重に作成されたメトリクスと、8つの機密属性を考慮に入れたデータセットで構成されている。
FaiRLLMベンチマークを用いて、ChatGPTの評価を行い、レコメンデーションを生成する際には、いくつかの機密属性に対して不公平であることがわかった。
論文 参考訳(メタデータ) (2023-05-12T16:54:36Z) - Fine-grained Retrieval Prompt Tuning [149.9071858259279]
微粒な検索プロンプトチューニングは, サンプルプロンプトと特徴適応の観点から, きめの細かい検索タスクを実行するために, 凍結した事前学習モデルを操る。
学習可能なパラメータが少ないFRPTは、広く使われている3つの細粒度データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-29T04:10:04Z) - Cluster Regularization via a Hierarchical Feature Regression [0.0]
本稿では,階層的特徴回帰(HFR)という新しいクラスタベース正規化を提案する。
機械学習とグラフ理論の領域からの洞察を動員し、予測セットの教師付き階層表現に沿ってパラメータを推定する。
経済成長予測への応用は、実証的な環境でのHFRの有効性を示すために用いられる。
論文 参考訳(メタデータ) (2021-07-10T13:03:01Z) - Reward Constrained Interactive Recommendation with Natural Language
Feedback [158.8095688415973]
制約強化強化学習(RL)フレームワークを提案する。
具体的には,ユーザの過去の嗜好に反するレコメンデーションを検出するために,識別器を利用する。
提案するフレームワークは汎用的であり,制約付きテキスト生成のタスクにさらに拡張されている。
論文 参考訳(メタデータ) (2020-05-04T16:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。