論文の概要: LLM-enhanced Reranking in Recommender Systems
- arxiv url: http://arxiv.org/abs/2406.12433v2
- Date: Thu, 20 Jun 2024 09:52:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 21:41:06.962922
- Title: LLM-enhanced Reranking in Recommender Systems
- Title(参考訳): レコメンダシステムにおけるLCM強化リグレード
- Authors: Jingtong Gao, Bo Chen, Xiangyu Zhao, Weiwen Liu, Xiangyang Li, Yichao Wang, Zijian Zhang, Wanyu Wang, Yuyang Ye, Shanru Lin, Huifeng Guo, Ruiming Tang,
- Abstract要約: リグレードはレコメンデーションシステムにおいて重要な要素であり、レコメンデーションアルゴリズムの出力を精査する上で重要な役割を果たす。
そこで我々は,様々な格付け基準をシームレスに統合する包括的格付けフレームワークを提案する。
カスタマイズ可能な入力機構も統合されており、言語モデルのフォーカスを特定の再配置のニーズに合わせることができる。
- 参考スコア(独自算出の注目度): 49.969932092129305
- License:
- Abstract: Reranking is a critical component in recommender systems, playing an essential role in refining the output of recommendation algorithms. Traditional reranking models have focused predominantly on accuracy, but modern applications demand consideration of additional criteria such as diversity and fairness. Existing reranking approaches often fail to harmonize these diverse criteria effectively at the model level. Moreover, these models frequently encounter challenges with scalability and personalization due to their complexity and the varying significance of different reranking criteria in diverse scenarios. In response, we introduce a comprehensive reranking framework enhanced by LLM, designed to seamlessly integrate various reranking criteria while maintaining scalability and facilitating personalized recommendations. This framework employs a fully connected graph structure, allowing the LLM to simultaneously consider multiple aspects such as accuracy, diversity, and fairness through a coherent Chain-of-Thought (CoT) process. A customizable input mechanism is also integrated, enabling the tuning of the language model's focus to meet specific reranking needs. We validate our approach using three popular public datasets, where our framework demonstrates superior performance over existing state-of-the-art reranking models in balancing multiple criteria. The code for this implementation is publicly available.
- Abstract(参考訳): リグレードはレコメンデーションシステムにおいて重要な要素であり、レコメンデーションアルゴリズムの出力を精査する上で重要な役割を果たす。
従来のリグレードモデルは精度に主に焦点を合わせてきたが、現代の応用では多様性や公正性といった追加の基準を考慮に入れている。
既存のリグレードアプローチは、モデルレベルでこれらの多様な基準を効果的に調和させるのに失敗することが多い。
さらに、これらのモデルは、スケーラビリティとパーソナライズに関する課題にしばしば遭遇する。
これに対して,LLMにより強化された包括的リグレードフレームワークを導入し,スケーラビリティを維持しつつ,パーソナライズされたレコメンデーションを促進するとともに,様々なリグレード基準をシームレスに統合する。
このフレームワークは、完全に連結されたグラフ構造を用いており、LLMはコヒーレント・チェーン・オブ・ソート(CoT)プロセスを通じて、正確性、多様性、公平性といった複数の側面を同時に検討することができる。
カスタマイズ可能な入力機構も統合されており、言語モデルのフォーカスを特定の再配置のニーズに合わせることができる。
我々は3つの一般的な公開データセットを用いてアプローチを検証する。このフレームワークは、複数の基準のバランスをとる上で、既存の最先端リグレードモデルよりも優れたパフォーマンスを示す。
この実装のコードは公開されています。
関連論文リスト
- Theoretical Analysis of KL-regularized RLHF with Multiple Reference Models [17.8627908893654]
厳密な統計分析を含む包括的理論的枠組みを導入し,複雑さの保証を提供する。
我々は分析を拡張し、KL規則化されたRLHFを前進させ、サンプルの複雑性要求に対する新たな洞察を提供する。
論文 参考訳(メタデータ) (2025-02-03T09:50:30Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - Ranked from Within: Ranking Large Multimodal Models for Visual Question Answering Without Labels [64.94853276821992]
大規模マルチモーダルモデル(LMM)は、様々なアプリケーションにまたがってますます展開されている。
従来の評価方法は、主にデータセット中心であり、固定されたラベル付きデータセットと教師付きメトリクスに依存している。
ソフトマックス確率などの不確実性信号を利用したLMMの教師なしモデルランキングについて検討する。
論文 参考訳(メタデータ) (2024-12-09T13:05:43Z) - From Models to Systems: A Comprehensive Fairness Framework for Compositional Recommender Systems [6.295527354699332]
現実のレコメンデーションシステムは、複数のモデルや複数のステージ上に構築されている。
本稿では,システムレベルの公平性をモデル化するための総合的な枠組みを提案する。
提案手法が合成データセットおよび実データセットに与える影響を実証的に実証した。
論文 参考訳(メタデータ) (2024-12-05T22:59:26Z) - Unlocking Tuning-Free Few-Shot Adaptability in Visual Foundation Models by Recycling Pre-Tuned LoRAs [76.40876036912537]
大規模言語モデル(LLM)は、微調整を必要とせず、強力な少数ショット適応性を示す。
現在のVisual Foundation Models (VFM) は十分なチューニングデータを持つ明示的な微調整を必要とする。
そこで我々は, メタ学習目的の多様なLoRAからメタLoRAを蒸留するフレームワークであるLoRA Recycleを提案する。
論文 参考訳(メタデータ) (2024-12-03T07:25:30Z) - Optimizing Sequential Recommendation Models with Scaling Laws and Approximate Entropy [104.48511402784763]
SRモデルの性能法則は,モデルの性能とデータ品質の関係を理論的に調査し,モデル化することを目的としている。
データ品質を評価するために、従来のデータ量メトリクスと比較して、より曖昧なアプローチを示すために、近似エントロピー(ApEn)を提案する。
論文 参考訳(メタデータ) (2024-11-30T10:56:30Z) - Lexicographic optimization-based approaches to learning a representative model for multi-criteria sorting with non-monotonic criteria [5.374419989598479]
本稿では,MCS問題の代表モデルを非単調な基準で学習するためのいくつかのアプローチを提案する。
まず、いくつかの変換関数を定義して、限界値と圏閾値を UTA のような関数空間にマッピングする。
そこで我々は,MCS問題における非単調な基準をモデル化するための制約セットを構築し,意思決定者の代入事例選好情報の整合性を確認する最適化モデルを構築した。
論文 参考訳(メタデータ) (2024-09-03T05:29:05Z) - Rewards-in-Context: Multi-objective Alignment of Foundation Models with Dynamic Preference Adjustment [46.44464839353993]
リワード・イン・コンテキスト(Rewards-in-Context, RiC)を導入する。
RiCは単一のファンデーションモデルの教師付き微調整のみを必要とし、推論時間中にユーザの好みを動的に調整する。
論文 参考訳(メタデータ) (2024-02-15T18:58:31Z) - Generalized Information Criteria for Structured Sparse Models [0.0]
本稿では,回復を希望する空間パターンを考慮した新しい汎用情報量規準(GIC)を提案する。
GICは正規化$m$-estimationフレームワーク内で正規化パラメータの選択にも利用できることを示す。
論文 参考訳(メタデータ) (2023-09-04T18:50:13Z) - Choosing the Best of Both Worlds: Diverse and Novel Recommendations
through Multi-Objective Reinforcement Learning [68.45370492516531]
本稿では,Recommender Systems (RS) 設定のための拡張多目的強化学習(SMORL)を紹介する。
SMORLエージェントは、標準レコメンデーションモデルを拡張し、RLレイヤーを追加し、3つの主要な目的(正確性、多様性、新しいレコメンデーション)を同時に満たすように強制する。
実世界の2つのデータセットに対する実験結果から,集約的多様性の顕著な増加,精度の適度な向上,レコメンデーションの反復性の低下,および相補的目的としての多様性と新規性の強化の重要性が示された。
論文 参考訳(メタデータ) (2021-10-28T13:22:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。