論文の概要: LLM-I2I: Boost Your Small Item2Item Recommendation Model with Large Language Model
- arxiv url: http://arxiv.org/abs/2512.21595v1
- Date: Thu, 25 Dec 2025 09:22:56 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:51:34.35634
- Title: LLM-I2I: Boost Your Small Item2Item Recommendation Model with Large Language Model
- Title(参考訳): LLM-I2I: 大規模言語モデルによる小項目推薦モデル
- Authors: Yinfu Feng, Yanjing Wu, Rong Xiao, Xiaoyi Zen,
- Abstract要約: アイテムツーアイテム(I2I)レコメンデーションモデルは、スケーラビリティ、リアルタイム機能、高いレコメンデーション品質のために、現実世界のシステムで広く利用されている。
1) より深いアーキテクチャを採用するが、計算コストとデプロイメントの複雑さを増大させるモデル中心のアプローチ、2) モデルを変更することなくトレーニングデータを洗練するデータ中心の手法。
LLM-I2Iは,Large Language Models(LLM)を利用したデータ品質問題を軽減するためのデータ中心フレームワークである。
- 参考スコア(独自算出の注目度): 3.0255768462835655
- License:
- Abstract: Item-to-Item (I2I) recommendation models are widely used in real-world systems due to their scalability, real-time capabilities, and high recommendation quality. Research to enhance I2I performance focuses on two directions: 1) model-centric approaches, which adopt deeper architectures but risk increased computational costs and deployment complexity, and 2) data-centric methods, which refine training data without altering models, offering cost-effectiveness but struggling with data sparsity and noise. To address these challenges, we propose LLM-I2I, a data-centric framework leveraging Large Language Models (LLMs) to mitigate data quality issues. LLM-I2I includes (1) an LLM-based generator that synthesizes user-item interactions for long-tail items, alleviating data sparsity, and (2) an LLM-based discriminator that filters noisy interactions from real and synthetic data. The refined data is then fused to train I2I models. Evaluated on industry (AEDS) and academic (ARD) datasets, LLM-I2I consistently improves recommendation accuracy, particularly for long-tail items. Deployed on a large-scale cross-border e-commerce platform, it boosts recall number (RN) by 6.02% and gross merchandise value (GMV) by 1.22% over existing I2I models. This work highlights the potential of LLMs in enhancing data-centric recommendation systems without modifying model architectures.
- Abstract(参考訳): アイテムツーアイテム(I2I)レコメンデーションモデルは、スケーラビリティ、リアルタイム機能、高いレコメンデーション品質のために、現実世界のシステムで広く利用されている。
I2I性能向上のための研究は2つの方向に焦点を当てている。
1)より深いアーキテクチャを採用するが、計算コストとデプロイメントの複雑さを増大させるモデル中心のアプローチ。
2) モデルを変更することなくトレーニングデータを洗練し, 費用対効果を提供するが, データの分散性やノイズに悩まされるデータ中心の手法。
これらの課題に対処するために,LLM-I2Iを提案する。LLM-I2Iは大規模言語モデル(LLM)を利用してデータ品質の問題を緩和するフレームワークである。
LLM-I2Iは,(1)ロングテールアイテムに対するユーザとテムの相互作用を合成し,データ空間を緩和するLLMベースのジェネレータと,(2)実データと合成データとのノイズの相互作用をフィルタリングするLLMベースのディミネータを備える。
精製されたデータは、I2Iモデルを訓練するために融合される。
LLM-I2Iは、業界(AEDS)と学術(ARD)データセットに基づいて、特にロングテールアイテムの推奨精度を一貫して改善する。
大規模なクロスボーダーのeコマースプラットフォーム上に展開され、リコール番号(RN)を6.02%、総商品価値(GMV)を既存のI2Iモデルよりも1.22%向上させる。
この研究は、モデルアーキテクチャを変更することなく、データ中心のレコメンデーションシステムを強化するLLMの可能性を強調している。
関連論文リスト
- Synergistic Enhancement of Requirement-to-Code Traceability: A Framework Combining Large Language Model based Data Augmentation and an Advanced Encoder [5.241456612683375]
本稿では,大規模言語モデル(LLM)によるデータ拡張と高度なエンコーダを統合するフレームワークを提案し,検証する。
まず、双方向およびゼロ/フェーショットプロンプト戦略の体系的評価によって最適化されたデータ拡張が、非常に効果的であることを実証した。
さらに、より広範な事前学習コーパスと拡張コンテキストウィンドウによって区別されるエンコーダを組み込むことにより、最先端の事前学習言語モデルに基づく確立された手法をさらに強化する。
論文 参考訳(メタデータ) (2025-09-24T14:14:21Z) - DMRL: Data- and Model-aware Reward Learning for Data Extraction [3.511535517476954]
大規模言語モデル(LLM)は本質的に意図しないプライバシー侵害に対して脆弱である。
本稿では,データ抽出のためのデータ・モデル・アウェア・リワード学習手法を提案する。
論文 参考訳(メタデータ) (2025-05-07T07:21:37Z) - LLMs are Also Effective Embedding Models: An In-depth Overview [41.34518828980852]
大規模言語モデル(LLM)は、様々なタスクで最先端のパフォーマンスを達成することによって、自然言語処理に革命をもたらした。
近年、埋め込みモデルとしての有効性が注目され、ELMoやBERTのような従来のエンコーダのみのモデルから、GPT、LLaMA、Mistralのようなデコーダのみの大規模LLMへとパラダイムシフトした。
論文 参考訳(メタデータ) (2024-12-17T06:48:24Z) - Building a Family of Data Augmentation Models for Low-cost LLM Fine-tuning on the Cloud [12.651588927599441]
モデル微調整の効率を大幅に向上するために,データ拡張モデル群を提案する。
これらのモデルは十分に小さなLLMに基づいて訓練され、推論コストの低い重要な機能をサポートする。
実験と応用研究は、我々のアプローチの有効性を証明した。
論文 参考訳(メタデータ) (2024-12-06T09:04:12Z) - Star-Agents: Automatic Data Optimization with LLM Agents for Instruction Tuning [71.2981957820888]
本稿では,データセット間のデータ品質向上を自動化する新しいStar-Agentsフレームワークを提案する。
このフレームワークは最初,複数のLDMエージェントを用いた多様なインストラクションデータを生成する。
生成したデータは、難易度と品質の両方を評価する二重モデル法を用いて厳密な評価を行う。
論文 参考訳(メタデータ) (2024-11-21T02:30:53Z) - LLM2LLM: Boosting LLMs with Novel Iterative Data Enhancement [79.31084387589968]
事前訓練された大規模言語モデル(LLM)は、現在、自然言語処理タスクの大部分を解決するための最先端技術である。
LLM2LLMは、教師のLLMを使って小さなシードデータセットを強化するデータ拡張戦略である。
GSM8Kデータセットでは最大24.2%、CaseHOLDでは32.6%、SNIPSでは32.0%、TRECでは52.6%、SST-2では39.8%の改善が達成された。
論文 参考訳(メタデータ) (2024-03-22T08:57:07Z) - Curated LLM: Synergy of LLMs and Data Curation for tabular augmentation in low-data regimes [57.62036621319563]
本稿では,Large Language Models (LLMs) の知識を低データ構造におけるデータ拡張に活用したCLLMを紹介する。
従来のジェネレータと比較して,低データ方式におけるCLLMの優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-19T12:34:46Z) - Ziya2: Data-centric Learning is All LLMs Need [41.44909548662012]
基礎モデルとしてLLaMA2を採用した13億のパラメータを持つモデルであるZiya2を提案する。
実験の結果、Ziya2は他のモデルを特にオープンソースと比較して有望な結果で、複数のベンチマークで大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2023-11-06T17:49:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。