論文の概要: Dual-Tree LLM-Enhanced Negative Sampling for Implicit Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2602.18249v1
- Date: Fri, 20 Feb 2026 14:32:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.348184
- Title: Dual-Tree LLM-Enhanced Negative Sampling for Implicit Collaborative Filtering
- Title(参考訳): 入出力協調フィルタリングのためのデュアルトレーLLM強化負サンプリング
- Authors: Jiayi Wu, Zhengyu Wu, Xunkai Li, Rong-Hua Li, Guoren Wang,
- Abstract要約: 大型言語モデル(LLM)は推奨システムにおいて有望であることを示している。
既存の方法はテキスト情報とタスク固有の微調整に依存しており、実用性に制限がある。
テキストフリーかつ微調整不要なデュアルトレー型負サンプリング法(DTL-NS)を提案する。
- 参考スコア(独自算出の注目度): 40.89512526196666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Negative sampling is a pivotal technique in implicit collaborative filtering (CF) recommendation, enabling efficient and effective training by contrasting observed interactions with sampled unobserved ones. Recently, large language models (LLMs) have shown promise in recommender systems; however, research on LLM-empowered negative sampling remains underexplored. Existing methods heavily rely on textual information and task-specific fine-tuning, limiting practical applicability. To address this limitation, we propose a text-free and fine-tuning-free Dual-Tree LLM-enhanced Negative Sampling method (DTL-NS). It consists of two modules: (i) an offline false negative identification module that leverages hierarchical index trees to transform collaborative structural and latent semantic information into structured item-ID encodings for LLM inference, enabling accurate identification of false negatives; and (ii) a multi-view hard negative sampling module that combines user-item preference scores with item-item hierarchical similarities from these encodings to mine high-quality hard negatives, thus improving models' discriminative ability. Extensive experiments demonstrate the effectiveness of DTL-NS. For example, on the Amazon-sports dataset, DTL-NS outperforms the strongest baseline by 10.64% and 19.12% in Recall@20 and NDCG@20, respectively. Moreover, DTL-NS can be integrated into various implicit CF models and negative sampling methods, consistently enhancing their performance.
- Abstract(参考訳): 負のサンプリングは、暗黙の協調フィルタリング(CF)レコメンデーションにおいて重要な手法であり、サンプリングされた未観測のものと観測された相互作用を対比することにより、効率的かつ効果的なトレーニングを可能にする。
近年,大規模言語モデル (LLMs) はレコメンデーションシステムにおいて有望であることを示しているが,LLMを用いたネガティブサンプリングの研究はいまだ過小評価されている。
既存の手法はテキスト情報やタスク固有の微調整に大きく依存しており、実用性に制限がある。
この制限に対処するため,テキストフリーかつ微調整不要なDual-Tree LLM-enhanced Negative Smpling法(DTL-NS)を提案する。
2つのモジュールから構成される。
一 階層的索引木を利用したオフライン偽陰性識別モジュールで、協調構造及び潜時意味情報をLCM推論のための構造化アイテムIDエンコーディングに変換することにより、偽陰性を正確に識別することができる。
(II) ユーザの嗜好スコアとこれらのエンコーディングからの項目の階層的類似性を組み合わせた多視点ハードネガティブサンプリングモジュールにより、高品質なハードネガティブをマイニングし、モデルの識別能力を向上する。
大規模な実験はDTL-NSの有効性を示す。
例えば、Amazon-Sportsデータセットでは、DTL-NSがそれぞれRecall@20とNDCG@20で10.64%、19.12%という最強のベースラインを上回っている。
さらに、DTL-NSは様々な暗黙のCFモデルや負のサンプリング手法に統合することができ、その性能を一貫して向上させることができる。
関連論文リスト
- Improving LLM-based Recommendation with Self-Hard Negatives from Intermediate Layers [80.55429742713623]
ILRecはLLMベースのレコメンデーションシステムのための新しい好みの微調整フレームワークである。
負の信号に対してトークンレベルの報酬を割り当てるための軽量な協調フィルタリングモデルを提案する。
3つのデータセットの実験は、LLMベースのレコメンデータシステムの性能向上におけるILRecの有効性を示している。
論文 参考訳(メタデータ) (2026-02-19T14:37:43Z) - Hard vs. Noise: Resolving Hard-Noisy Sample Confusion in Recommender Systems via Large Language Models [4.7341002297388295]
トレーニングレコメンデータシステムで使用される暗黙のフィードバックは、ミスクリックや位置バイアスといった要因によって、避けられないほどノイズに直面する。
従来の研究では、より高い損失値などの分散したデータパターンを通じてノイズのあるサンプルを識別しようと試みてきた。
ノイズのあるサンプルと硬いサンプルが類似したパターンを呈し,ノイズの多い混乱問題を引き起こした。
論文 参考訳(メタデータ) (2025-11-10T16:51:03Z) - UniME-V2: MLLM-as-a-Judge for Universal Multimodal Embedding Learning [101.62386137855704]
本稿では,Universal Multimodal Embedding (UniME-V2)モデルを提案する。
提案手法はまず,グローバル検索による潜在的な負のセットを構築する。
次に、MLLMを用いてクエリ候補対のセマンティックアライメントを評価するMLLM-as-a-Judge機構を提案する。
これらのスコアは、ハード・ネガティブ・マイニングの基礎となり、偽陰性の影響を緩和し、多様な高品質なハード・ネガティブの識別を可能にする。
論文 参考訳(メタデータ) (2025-10-15T13:07:00Z) - Can LLM-Driven Hard Negative Sampling Empower Collaborative Filtering? Findings and Potentials [9.668242919588199]
強い負のサンプルはモデル収束を加速し、決定境界を最適化する。
本稿ではセマンティックネガティブサンプリングの概念を紹介する。
協調信号によって制御される微調整LDMに基づくHNLMRecというフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-07T04:39:45Z) - ESANS: Effective and Semantic-Aware Negative Sampling for Large-Scale Retrieval Systems [7.897183317096681]
検索段階において、古典的な埋め込みに基づく検索手法は、性能と効率を両立させる効果的な負のサンプリング手法に依存している。
我々は,エフェクト・センス補間戦略 (EDIS) とマルチモーダル・セマンティック・アウェア・クラスタリング (MSAC) の2つの重要なコンポーネントを統合した,エフェクト・セマンティック・ネガティブ・サンプリング (ESANS) を提案する。
論文 参考訳(メタデータ) (2025-02-22T04:43:20Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - A Framework for Fine-Tuning LLMs using Heterogeneous Feedback [69.51729152929413]
ヘテロジニアスフィードバックを用いた大規模言語モデル(LLM)の微調整フレームワークを提案する。
まず、不均一なフィードバックデータをSFTやRLHFなどの手法と互換性のある単一の監視形式にまとめる。
次に、この統合されたフィードバックデータセットから、性能向上を得るために高品質で多様なサブセットを抽出する。
論文 参考訳(メタデータ) (2024-08-05T23:20:32Z) - Aligning Language Models with Demonstrated Feedback [58.834937450242975]
Demonstration ITerated Task Optimization (DITTO)は、言語モデルの出力とユーザの実証された振る舞いを直接調整する。
我々は,DITTOがニュース記事やメール,ブログ記事などのドメイン間できめ細かいスタイルやタスクアライメントを学習する能力を評価する。
論文 参考訳(メタデータ) (2024-06-02T23:13:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。