論文の概要: GLoSS: Generative Language Models with Semantic Search for Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2506.01910v2
- Date: Mon, 09 Jun 2025 23:45:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 12:52:34.248995
- Title: GLoSS: Generative Language Models with Semantic Search for Sequential Recommendation
- Title(参考訳): GLoSS:シーケンスレコメンデーションのための意味探索付き生成言語モデル
- Authors: Krishna Acharya, Aleksandr V. Petrov, Juba Ziani,
- Abstract要約: セマンティック検索(GLoSS)を用いた生成低ランク言語モデルを提案する。
GLoSSはセマンティック検索を使用して、語彙マッチングを超えて関連するアイテムを検索する。
我々は、GLoSSを3つの実世界のAmazonレビューデータセット、美容、トイ、スポーツで評価し、最先端のパフォーマンスを達成することを発見した。
- 参考スコア(独自算出の注目度): 46.86076466078148
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose Generative Low-rank language model with Semantic Search (GLoSS), a generative recommendation framework that combines large language models with dense retrieval for sequential recommendation. Unlike prior methods such as GPT4Rec, which rely on lexical matching via BM25, GLoSS uses semantic search to retrieve relevant items beyond lexical matching. For query generation, we employ 4-bit quantized LlaMA-3 models fine-tuned with low-rank adaptation (LoRA), enabling efficient training and inference on modest hardware. We evaluate GLoSS on three real-world Amazon review datasets: Beauty, Toys, and Sports, and find that it achieves state-of-the-art performance. Compared to traditional ID-based baselines, GLoSS improves Recall@5 by 33.3%, 52.8%, and 15.2%, and NDCG@5 by 30.0%, 42.6%, and 16.1%, respectively. It also outperforms LLM-based recommenders such as P5, GPT4Rec, LlamaRec and E4SRec with Recall@5 gains of 4.3%, 22.8%, and 29.5%. Additionally, user segment evaluations show that GLoSS performs particularly well for cold-start users in the Amazon Toys and Sports datasets, and benefits from longer user histories in Amazon Beauty dataset, demonstrating robustness across different levels of interaction lengths.
- Abstract(参考訳): 本稿では,セマンティック検索(GLoSS)を用いた生成低ランク言語モデルを提案する。
BM25を介して語彙マッチングに依存するGPT4Recのような従来の手法とは異なり、GLoSSは意味探索を使用して語彙マッチング以外の関連項目を検索する。
クエリ生成には、4ビットの量子化LlaMA-3モデルにローランク適応(LoRA)を微調整し、適度なハードウェア上で効率的なトレーニングと推論を可能にする。
我々は、GLoSSを3つの実世界のAmazonレビューデータセット、美容、トイ、スポーツで評価し、最先端のパフォーマンスを達成することを発見した。
従来のIDベースのベースラインと比較して、GLoSSはRecall@5を33.3%、52.8%、および15.2%改善し、NDCG@5を30.0%、42.6%、16.1%改善した。
また、P5、GPT4Rec、LlamaRec、E4SRecといったLCMベースのレコメンデーターの4.3%、22.8%、29.5%を上回っている。
さらに、ユーザセグメント評価では、GLoSSはAmazon ToysとSportsデータセットのコールドスタートユーザに特に適しており、Amazon Beautyデータセットの長いユーザ履歴の恩恵を受けており、さまざまなレベルのインタラクションの長さにわたって堅牢性を実証している。
関連論文リスト
- Stackelberg Game Preference Optimization for Data-Efficient Alignment of Language Models [11.503591858244844]
Stackelberg Game Preference Optimization (SGPO) は、2プレイヤーのStackelbergゲームとしてアライメントをモデル化するフレームワークである。
SGPOをStackelberg Self-Annotated Preference Optimization (SSAPO)アルゴリズムでインスタンス化する。
SSAPOの3ラウンドで,Mistral-7Bで35.82%,Llama3-8B-Instructで40.12%,GPT-4で35.82%の勝利率を達成した。
論文 参考訳(メタデータ) (2025-02-25T11:08:12Z) - S*: Test Time Scaling for Code Generation [55.11863577956177]
コード生成のための最初のハイブリッドテストタイムスケーリングフレームワークであるS*を提案する。
S*は生成されたコードのカバレッジと選択精度を大幅に改善する。
論文 参考訳(メタデータ) (2025-02-20T09:18:53Z) - Evaluating the Performance of Large Language Models for SDG Mapping (Technical Report) [6.789534723913505]
大規模言語モデル(LLM)は、サードパーティにデータを提供する必要をなくすことで、データのプライバシ保護を可能にする。
持続可能な開発目標マッピングタスクにおいて,様々な言語モデルの性能を比較した。
この研究の結果によると、LLaMA 2とGemmaは依然として改善の余地がある。
論文 参考訳(メタデータ) (2024-08-05T03:05:02Z) - SORRY-Bench: Systematically Evaluating Large Language Model Safety Refusal [64.9938658716425]
SORRY-Benchは、安全でないユーザ要求を認識し拒否する大規模言語モデル(LLM)能力を評価するためのベンチマークである。
まず、既存の手法では、安全でないトピックの粗い分類を使い、いくつかのきめ細かいトピックを過剰に表現している。
第二に、プロンプトの言語的特徴とフォーマッティングは、様々な言語、方言など、多くの評価において暗黙的にのみ考慮されているように、しばしば見過ごされる。
論文 参考訳(メタデータ) (2024-06-20T17:56:07Z) - Scaling Sparse Fine-Tuning to Large Language Models [67.59697720719672]
大きな言語モデル(LLM)は、パラメータの数が多いため、完全な微調整が難しい。
本研究では,パラメータの配列とパラメータのデルタを事前学習した値に対して保持する新しいスパース微調整法SpIELを提案する。
提案手法は,LoRAのようなパラメータ効率の高い微調整法よりも性能が優れ,実行時間も同等であることを示す。
論文 参考訳(メタデータ) (2024-01-29T18:43:49Z) - Prometheus: Inducing Fine-grained Evaluation Capability in Language
Models [66.12432440863816]
我々は,GPT-4の評価能力に匹敵する,完全にオープンソースなLarge Language Model (LLM) であるPrometheusを提案する。
プロメテウスは45種類の楽譜を用いた評価において、Pearsonの0.897の相関を人間の評価値と比較した。
Prometheusは2つの人間の選好ベンチマークで最も精度が高い。
論文 参考訳(メタデータ) (2023-10-12T16:50:08Z) - cTBLS: Augmenting Large Language Models with Conversational Tables [0.76146285961466]
会話表(英語: Conversational Tables、cTBLS)は、検索した表情報に基づいて対話応答を検索して生成する3段階アーキテクチャである。
人間の評価者は、cTBLs+80%の時間(コヒーレンシー、流派)を好んでおり、以前の最先端よりも4倍良いと判断する。
論文 参考訳(メタデータ) (2023-03-21T17:04:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。