論文の概要: Improving the Performance of Sequential Recommendation Systems with an Extended Large Language Model
- arxiv url: http://arxiv.org/abs/2507.19990v1
- Date: Sat, 26 Jul 2025 15:59:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:56.657549
- Title: Improving the Performance of Sequential Recommendation Systems with an Extended Large Language Model
- Title(参考訳): 拡張大言語モデルによる逐次推薦システムの性能向上
- Authors: Sinnyum Choi, Woong Kim,
- Abstract要約: 本研究では,LlamaRecフレームワークにおけるLlama2をLlama3に置き換えることで,LLMベースのレコメンデーションシステムを改善することを提案する。
実験の結果、ML-100K、Beauty、Gamesの各データセットの平均パフォーマンス改善は38.65%、8.69%、および8.19%であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, competition in the field of artificial intelligence (AI) has intensified among major technological companies, resulting in the continuous release of new large-language models (LLMs) that exhibit improved language understanding and context-based reasoning capabilities. It is expected that these advances will enable more efficient personalized recommendations in LLM-based recommendation systems through improved quality of training data and architectural design. However, many studies have not considered these recent developments. In this study, it was proposed to improve LLM-based recommendation systems by replacing Llama2 with Llama3 in the LlamaRec framework. To ensure a fair comparison, random seed values were set and identical input data was provided during preprocessing and training. The experimental results show average performance improvements of 38.65\%, 8.69\%, and 8.19\% for the ML-100K, Beauty, and Games datasets, respectively, thus confirming the practicality of this method. Notably, the significant improvements achieved by model replacement indicate that the recommendation quality can be improved cost-effectively without the need to make structural changes to the system. Based on these results, it is our contention that the proposed approach is a viable solution for improving the performance of current recommendation systems.
- Abstract(参考訳): 近年、人工知能(AI)分野の競争は主要技術企業の間で激化しており、言語理解と文脈に基づく推論能力の向上を示す新しい大規模言語モデル(LLM)が継続的にリリースされている。
これらの進歩により、トレーニングデータの品質とアーキテクチャ設計の改善を通じて、LLMベースのレコメンデーションシステムにおいてより効率的なパーソナライズされたレコメンデーションが可能になることが期待されている。
しかし、多くの研究はこれらの最近の発展を考慮していない。
本研究では,LlamaRecフレームワークにおいてLlama2をLlama3に置き換えることで,LLMベースのレコメンデーションシステムを改善することを提案した。
公正な比較を確保するため、ランダムなシード値を設定し、前処理とトレーニングの間に同一の入力データを提供した。
実験の結果,ML-100K,美容,ゲームの各データセットの平均性能は38.65\%,8.69\%,8.19\%であった。
特に、モデル置換によって達成された重要な改善は、システムに構造的な変更を加える必要なしに、推奨品質を費用対効果で改善できることを示している。
これらの結果から,提案手法は現在のレコメンデーションシステムの性能向上に有効なソリューションである,という結論が得られた。
関連論文リスト
- Optimizers Qualitatively Alter Solutions And We Should Leverage This [62.662640460717476]
ディープニューラルネットワーク(DNN)は、SGDのようなローカル情報のみを使用する場合、損失のグローバルな最小限に収束することを保証できない。
コミュニティは、既存のメソッドのバイアスを理解すること、また、ソリューションの特定の特性を誘発する明示的な意図で、新しいDNNを構築することを目的としている。
論文 参考訳(メタデータ) (2025-07-16T13:33:31Z) - Efficient Code LLM Training via Distribution-Consistent and Diversity-Aware Data Selection [29.647174797769015]
本稿では,トレーニング効率とモデル性能の両方を改善することを目的とした,パラメトリックモデルを用いたコードデータ選択手法を提案する。
提案手法は,92K以上の全サンプリングベースラインに対して2.4% (HumanEval) と2.3% (MBPP) のゲインを達成し,他のサンプリング手法よりも性能と効率が優れている。
論文 参考訳(メタデータ) (2025-07-03T07:19:56Z) - OneRec Technical Report [65.24343832974165]
提案するOneRecは,エンド・ツー・エンドのジェネレーティブ・アプローチによってレコメンデーションシステムを再評価する。
まず、現在のレコメンデーションモデルの計算FLOPを10$times$で拡張し、特定のバウンダリ内でのレコメンデーションのスケーリング法則を特定した。
第2に、推薦の最適化にこれまで適用が困難であった強化学習技術は、この枠組みに有意な可能性を示している。
論文 参考訳(メタデータ) (2025-06-16T16:58:55Z) - Benchmarking LLMs in Recommendation Tasks: A Comparative Evaluation with Conventional Recommenders [27.273217543282215]
本稿では、クリックスルーレート予測(CTR)とシーケンシャルレコメンデーション(SeqRec)という2つの主要なレコメンデーションタスクを評価するRecBenchを紹介する。
実験は最大17種類の大モデルを対象としており、ファッション、ニュース、ビデオ、書籍、音楽ドメインの5つの多様なデータセットで実施されている。
以上の結果から,LCMベースのレコメンデータは従来のレコメンデータよりも優れ,CTRシナリオでは最大5%のAUC改善,SeqRecシナリオでは最大170%のNDCG@10改善を実現した。
論文 参考訳(メタデータ) (2025-03-07T15:05:23Z) - Your Language Model May Think Too Rigidly: Achieving Reasoning Consistency with Symmetry-Enhanced Training [66.48331530995786]
我々は、文脈から有用な情報を抽出する能力を向上させるデータ中心のアプローチであるsyMmetry-ENhanceD (MEND) Data Augmentationを提案する。
推論連鎖の増大を強調する既存の手法とは異なり,本手法は知識抽出段階におけるモデルロバスト性を向上させる。
論理的および算術的推論タスクの実験は、MENDが様々なクエリのバリエーションで推論性能を向上させることを示している。
論文 参考訳(メタデータ) (2025-02-25T03:03:35Z) - Dynamic Noise Preference Optimization for LLM Self-Improvement via Synthetic Data [51.62162460809116]
我々は、イテレーション間で一貫した改善を保証するために、動的ノイズ優先最適化(DNPO)を導入します。
Zephyr-7Bでの実験では、DNPOは既存の手法を一貫して上回り、平均性能は2.6%向上した。
DNPOは、GPT-4評価のベースラインに比べて29.4%のウィンロス率差で、モデル生成データの品質が大幅に向上したことを示している。
論文 参考訳(メタデータ) (2025-02-08T01:20:09Z) - Multi-Response Preference Optimization with Augmented Ranking Dataset [2.8973004951877357]
優先度最適化は、大規模言語モデルの性能向上に重要な役割を果たしている。
提案手法は,拡張された優先度最適化データセットに対する新しいアプローチである。
また,マルチレスポンスに基づく参照最適化学習手法を提案する。
論文 参考訳(メタデータ) (2024-12-10T05:45:36Z) - Star-Agents: Automatic Data Optimization with LLM Agents for Instruction Tuning [71.2981957820888]
本稿では,データセット間のデータ品質向上を自動化する新しいStar-Agentsフレームワークを提案する。
このフレームワークは最初,複数のLDMエージェントを用いた多様なインストラクションデータを生成する。
生成したデータは、難易度と品質の両方を評価する二重モデル法を用いて厳密な評価を行う。
論文 参考訳(メタデータ) (2024-11-21T02:30:53Z) - Achieving Peak Performance for Large Language Models: A Systematic Review [0.0]
大規模言語モデル(LLM)は自然言語処理(NLP)において顕著な成功を収めた
モデルが1兆のパラメータ範囲に成長するにつれて、計算とメモリのコストは大幅に増加する。
これにより、多くの研究者がこれらのモデルのトレーニングや適用に必要なリソースにアクセスするのが難しくなる。
論文 参考訳(メタデータ) (2024-09-07T13:57:41Z) - CATfOOD: Counterfactual Augmented Training for Improving Out-of-Domain
Performance and Calibration [59.48235003469116]
データの増大はOOD性能を継続的に向上させることを示す。
また, CF拡張モデルのキャリブレーションが容易な場合, 重要度を割り当てる場合, エントロピーがはるかに低いことを示す。
論文 参考訳(メタデータ) (2023-09-14T16:16:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。