論文の概要: MiniOneRec: An Open-Source Framework for Scaling Generative Recommendation
- arxiv url: http://arxiv.org/abs/2510.24431v1
- Date: Tue, 28 Oct 2025 13:58:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.210295
- Title: MiniOneRec: An Open-Source Framework for Scaling Generative Recommendation
- Title(参考訳): MiniOneRec: ジェネレーティブレコメンデーションをスケールするためのオープンソースフレームワーク
- Authors: Xiaoyu Kong, Leheng Sheng, Junfei Tan, Yuxin Chen, Jiancan Wu, An Zhang, Xiang Wang, Xiangnan He,
- Abstract要約: MiniOneRecは、最初の完全なオープンソースジェネレーティブレコメンデーションフレームワークである。
SID構築にまたがるエンドツーエンドワークフロー、教師付き微調整、レコメンデーション指向の強化学習を提供する。
実験の結果,モデルサイズの増加に伴い,トレーニングと評価の両方の損失が一貫した下降傾向を示した。
- 参考スコア(独自算出の注目度): 44.05859062614669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent success of large language models (LLMs) has renewed interest in whether recommender systems can achieve similar scaling benefits. Conventional recommenders, dominated by massive embedding tables, tend to plateau as embedding dimensions grow. In contrast, the emerging generative paradigm replaces embeddings with compact Semantic ID (SID) sequences produced by autoregressive Transformers. Yet most industrial deployments remain proprietary, leaving two fundamental questions open: (1) Do the expected scaling laws hold on public benchmarks? (2) What is the minimal post-training recipe that enables competitive performance? We present MiniOneRec, to the best of our knowledge, the first fully open-source generative recommendation framework, which provides an end-to-end workflow spanning SID construction, supervised fine-tuning, and recommendation-oriented reinforcement learning. We generate SIDs via a Residual Quantized VAE and post-train Qwen backbones ranging from 0.5B to 7B parameters on the Amazon Review dataset. Our experiments reveal a consistent downward trend in both training and evaluation losses with increasing model size, validating the parameter efficiency of the generative approach. To further enhance performance, we propose a lightweight yet effective post-training pipeline that (1) enforces full-process SID alignment and (2) applies reinforcement learning with constrained decoding and hybrid rewards. Together, these techniques yield significant improvements in both ranking accuracy and candidate diversity.
- Abstract(参考訳): 近年の大規模言語モデル(LLM)の成功は、リコメンダシステムが同様のスケーリングのメリットを享受できるかどうかに再び関心を寄せている。
従来のレコメンデーターは、巨大な埋め込みテーブルが支配的であり、埋め込み次元が大きくなるにつれて台地が高くなる傾向にある。
対照的に、新たな生成パラダイムは、組み込みを自己回帰変換器によって生成されるコンパクトなセマンティックID(SID)シーケンスに置き換える。
しかし、ほとんどの産業展開はプロプライエタリであり、2つの基本的な疑問を残している。
2) 競争力を高める最小限のポストトレーニングレシピとは何か。
このフレームワークは、SID構築、教師付き微調整、レコメンデーション指向の強化学習にまたがるエンドツーエンドのワークフローを提供する。
Amazon Reviewデータセット上で、Residual Quantized VAEと、0.5Bから7Bパラメータのトレーニング後のQwenバックボーンを介してSIDを生成します。
本実験は,モデルサイズの増加に伴うトレーニングと評価の損失の両面において,一貫した下降傾向を示し,生成手法のパラメータ効率を検証した。
性能向上のために,(1)全プロセスのSIDアライメントを強制する軽量かつ効果的な後学習パイプラインを提案し,(2)制約付き復号化とハイブリッド報酬を用いた強化学習を適用した。
これらの手法が組み合わさって、ランキング精度と候補の多様性の両方に大きな改善をもたらす。
関連論文リスト
- MMR1: Enhancing Multimodal Reasoning with Variance-Aware Sampling and Open Resources [113.33902847941941]
VAS (Variance-Aware Sampling) は、Variance Promotion Score (VPS) によって導かれるデータ選択戦略である。
我々は、1.6MのCoT冷間開始データと15kのRLQAペアを含む大規模かつ慎重にキュレートされたリソースをリリースする。
数学的推論ベンチマークによる実験では、キュレートされたデータと提案されたVASの有効性が示されている。
論文 参考訳(メタデータ) (2025-09-25T14:58:29Z) - From Clicks to Preference: A Multi-stage Alignment Framework for Generative Query Suggestion in Conversational System [11.373145953200137]
生成ポリシーとユーザ意図のプログレッシブアライメントを目的とした多段階フレームワークを提案する。
我々の枠組みは, 自動評価と人的評価の両方において, ベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2025-08-15T10:17:01Z) - SCoRE: Streamlined Corpus-based Relation Extraction using Multi-Label Contrastive Learning and Bayesian kNN [0.2812395851874055]
本稿では,モジュール型かつ費用対効果の高い文レベルの関係抽出システムであるSCoREを紹介する。
SCoREは簡単なPLMスイッチングを可能にし、微調整を必要とせず、多様なコーパスやKGにスムーズに適応する。
SCoREは, エネルギー消費を大幅に削減しつつ, 最先端の手法に適合するか, 超越しているかを示す。
論文 参考訳(メタデータ) (2025-07-09T14:33:07Z) - LARES: Latent Reasoning for Sequential Recommendation [96.26996622771593]
本稿では、シークエンシャルレコメンデーションのための新しいスケーラブルなLatent ReasoningフレームワークであるLARESを紹介する。
提案手法では,パラメータの複雑性を増大させることなく推理深度を柔軟に拡張できる再帰的アーキテクチャを用いている。
我々のフレームワークは既存の高度なモデルとのシームレスな互換性を示し、推奨性能をさらに向上させる。
論文 参考訳(メタデータ) (2025-05-22T16:22:54Z) - Action is All You Need: Dual-Flow Generative Ranking Network for Recommendation [25.30922374657862]
本稿では,相互作用モデリングの最適化にデュアルフロー機構を用いるDual-Flow Generative Ranking Network (DFGR)を提案する。
DFGRは、元のユーザ行動シーケンスを、アクション情報の信頼性に基づいて、実際のフローと偽のフローに複製する。
この設計は、MetaのHSTUベースのモデルと比較して、計算オーバーヘッドを低減し、トレーニング効率と推論性能の両方を改善する。
論文 参考訳(メタデータ) (2025-05-22T14:58:53Z) - Killing Two Birds with One Stone: Unifying Retrieval and Ranking with a Single Generative Recommendation Model [71.45491434257106]
Unified Generative Recommendation Framework (UniGRF)は、検索とランキングを単一の生成モデルに統合する新しいアプローチである。
ステージ間コラボレーションを強化するため、UniGRFはランキング駆動エンハンサーモジュールを導入した。
UniGRFは、ベンチマークデータセット上で既存のモデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2025-04-23T06:43:54Z) - Lightweight and Direct Document Relevance Optimization for Generative Information Retrieval [49.669503570350166]
生成情報検索(GenIR)は、文書識別子(ドシデント)生成タスクとして文書検索を定式化する有望なニューラル検索パラダイムである。
既存のGenIRモデルはトークンレベルのミスアライメントに悩まされており、次のトークンを予測するためにトレーニングされたモデルは、ドキュメントレベルの関連性を効果的にキャプチャできないことが多い。
本稿では,トークンレベルのドシデント生成と文書レベルのドシデンス推定をペアのランク付けによる直接最適化により整合するダイレクトドキュメントレバレンス最適化(DDRO)を提案する。
論文 参考訳(メタデータ) (2025-04-07T15:27:37Z) - SPLADE v2: Sparse Lexical and Expansion Model for Information Retrieval [11.38022203865326]
SPLADEモデルは、最先端の高密度かつスパースなアプローチに関して、高度にスパースな表現と競争結果を提供する。
我々は、プール機構を変更し、文書拡張のみに基づいてモデルをベンチマークし、蒸留で訓練されたモデルを導入する。
全体として、SPLADEはTREC DL 2019のNDCG@10で9ドル以上のゲインで大幅に改善され、BEIRベンチマークで最先端の結果が得られた。
論文 参考訳(メタデータ) (2021-09-21T10:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。