論文の概要: GORACS: Group-level Optimal Transport-guided Coreset Selection for LLM-based Recommender Systems
- arxiv url: http://arxiv.org/abs/2506.04015v1
- Date: Wed, 04 Jun 2025 14:46:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.385553
- Title: GORACS: Group-level Optimal Transport-guided Coreset Selection for LLM-based Recommender Systems
- Title(参考訳): GORACS:LLMリコメンダシステムのためのグループレベルの最適輸送誘導コアセット選択
- Authors: Tiehua Mei, Hengrui Chen, Peng Yu, Jiaqing Liang, Deqing Yang,
- Abstract要約: 大規模言語モデル(LLM)はレコメンデーションシステムにおいて大きな可能性を示している。
GORACSは、LLMベースのレコメンデータシステムのためのグループレベルの最適tRAnsport誘導コアセット選択フレームワークである。
- 参考スコア(独自算出の注目度): 17.1208625827132
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although large language models (LLMs) have shown great potential in recommender systems, the prohibitive computational costs for fine-tuning LLMs on entire datasets hinder their successful deployment in real-world scenarios. To develop affordable and effective LLM-based recommender systems, we focus on the task of coreset selection which identifies a small subset of fine-tuning data to optimize the test loss, thereby facilitating efficient LLMs' fine-tuning. Although there exist some intuitive solutions of subset selection, including distribution-based and importance-based approaches, they often lead to suboptimal performance due to the misalignment with downstream fine-tuning objectives or weak generalization ability caused by individual-level sample selection. To overcome these challenges, we propose GORACS, which is a novel Group-level Optimal tRAnsport-guided Coreset Selection framework for LLM-based recommender systems. GORACS is designed based on two key principles for coreset selection: 1) selecting the subsets that minimize the test loss to align with fine-tuning objectives, and 2) enhancing model generalization through group-level data selection. Corresponding to these two principles, GORACS has two key components: 1) a Proxy Optimization Objective (POO) leveraging optimal transport and gradient information to bound the intractable test loss, thus reducing computational costs by avoiding repeated LLM retraining, and 2) a two-stage Initialization-Then-Refinement Algorithm (ITRA) for efficient group-level selection. Our extensive experiments across diverse recommendation datasets and tasks validate that GORACS significantly reduces fine-tuning costs of LLMs while achieving superior performance over the state-of-the-art baselines and full data training. The source code of GORACS are available at https://github.com/Mithas-114/GORACS.
- Abstract(参考訳): 大規模言語モデル(LLM)はレコメンデーションシステムにおいて大きな可能性を示しているが、データセット全体の微調整 LLM の計算コストが現実のシナリオへの展開を妨げている。
安価で効率的なLCMベースのレコメンデータシステムを開発するために,テスト損失を最適化するために,最小限の微調整データを識別し,効率的なLCMの微調整を容易にするコアセット選択の課題に焦点をあてる。
分布に基づく、重要度に基づくアプローチを含む、サブセット選択の直感的な解が存在するが、下流の微調整目的との相違や、個々のレベルのサンプル選択によって生じる一般化能力の弱さにより、しばしば準最適性能をもたらす。
これらの課題を克服するために,GORACSを提案する。GORACSは,LDMベースのレコメンデータシステムのための,グループレベルの最適tRAnsport誘導コアセット選択フレームワークである。
GORACSはコアセット選択の2つの重要な原則に基づいて設計されている。
1)微調整対象に合わせてテスト損失を最小限に抑えるサブセットを選択し、
2)グループレベルのデータ選択によるモデル一般化の強化。
これら2つの原則に対応して,GORACSには2つの重要なコンポーネントがある。
1) 最適輸送情報と勾配情報を利用して、難解なテスト損失を束縛し、繰り返しLLMリトレーニングを回避し、計算コストを低減させるプロキシ最適化目標(POO)
2) グループレベルの効率的な選別のための2段階初期化Then-Refinement Algorithm (ITRA) を提案する。
多様なレコメンデーションデータセットやタスクにわたる広範な実験により、GORACSはLLMの微調整コストを著しく削減し、最先端のベースラインとフルデータトレーニングよりも優れたパフォーマンスを実現した。
GORACSのソースコードはhttps://github.com/Mithas-114/GORACSで公開されている。
関連論文リスト
- ActiveDPO: Active Direct Preference Optimization for Sample-Efficient Alignment [94.36403843133616]
人間の好みを使って大きな言語モデル(LLM)を整列させると、さまざまな下流タスクのパフォーマンスが大幅に向上する。
既存の方法には強い理論的な基礎が欠けているか、制限的な報酬関数の仮定に依存している。
非線型報酬関数に対して理論的に基底化されたデータ選択基準を用いるアルゴリズムであるActiveDPOを提案する。
論文 参考訳(メタデータ) (2025-05-25T17:42:52Z) - DeepRec: Towards a Deep Dive Into the Item Space with Large Language Model Based Recommendation [83.21140655248624]
大型言語モデル (LLM) はレコメンダシステム (RS) に導入された。
本稿では, LLM と TRM の自律的マルチターンインタラクションを実現する新しい RS である DeepRec を提案する。
公開データセットの実験では、DeepRecは従来のものとLLMベースのベースラインの両方で大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2025-05-22T15:49:38Z) - MergeIT: From Selection to Merging for Efficient Instruction Tuning [5.134809848666052]
MergeITは、より良いインストラクションチューニングのための新しい戦略である。
まず、トピック対応のクラスタをフィルタリングし、データセットを洗練する。
第二に、LLMベースのマージは意味論的に類似した命令をより情報的でコンパクトなトレーニングデータに合成する。
論文 参考訳(メタデータ) (2025-02-25T03:43:20Z) - Federated Fine-Tuning of LLMs: Framework Comparison and Research Directions [59.5243730853157]
Federated Learning(FL)は、分散プライベートデータセットを使用して、トレーニング済みの大規模言語モデル(LLM)を微調整するための、プライバシ保護ソリューションを提供する。
本稿では、知識蒸留(KD)とスプリットラーニング(SL)を統合し、これらの問題を緩和する3つの先進的連合LLM(FedLLM)フレームワークの比較分析を行う。
論文 参考訳(メタデータ) (2025-01-08T11:37:06Z) - A Systematic Examination of Preference Learning through the Lens of Instruction-Following [83.71180850955679]
新たな合成データ生成パイプラインを用いて48,000の命令追従プロンプトを生成する。
合成プロンプトでは、リジェクションサンプリング(RS)とモンテカルロ木探索(MCTS)の2つの選好データセットキュレーション手法を用いる。
実験により、MCTSが生成した選好ペアにおける共有プレフィックスは、限界はあるが一貫した改善をもたらすことが明らかになった。
高コントラストの選好ペアは一般的に低コントラストのペアよりも優れているが、両者を組み合わせることで最高のパフォーマンスが得られることが多い。
論文 参考訳(メタデータ) (2024-12-18T15:38:39Z) - Self-supervised Preference Optimization: Enhance Your Language Model with Preference Degree Awareness [27.43137305486112]
本稿では,自己監督的選好度損失とアライメント損失を組み合わせた自己監督的選好度損失を構成する,新しい自己監督的選好最適化(SPO)フレームワークを提案する。
その結果,SPOを既存の好み最適化手法とシームレスに統合し,最先端性能を実現することができた。
論文 参考訳(メタデータ) (2024-09-26T12:37:26Z) - SelectLLM: Query-Aware Efficient Selection Algorithm for Large Language Models [8.558834738072363]
大規模言語モデル(LLM)は、様々なアプリケーションにまたがる顕著な性能のために広く採用されている。
これらの個々のLCMは、固有のトレーニングバイアス、モデルサイズ制約、トレーニング前のデータセットの品質や多様性による、複雑なタスクの一般化とパフォーマンスの制限を示す。
本稿では,入力クエリをLLMの最も適切なサブセットに効率的に誘導するSelectLLMを紹介する。
論文 参考訳(メタデータ) (2024-08-16T06:11:21Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。