論文の概要: Multimodal Item Scoring for Natural Language Recommendation via Gaussian Process Regression with LLM Relevance Judgments
- arxiv url: http://arxiv.org/abs/2510.22023v1
- Date: Fri, 24 Oct 2025 21:03:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.739483
- Title: Multimodal Item Scoring for Natural Language Recommendation via Gaussian Process Regression with LLM Relevance Judgments
- Title(参考訳): LLM関連判断を用いたガウス過程回帰による自然言語推薦のためのマルチモーダル項目抽出
- Authors: Yifan Liu, Qianfeng Wen, Jiazhou Liang, Mark Zhao, Justin Cui, Anton Korikov, Armin Torogh, Junyoung Kim, Scott Sanner,
- Abstract要約: 自然言語レコメンデーション(NLRec)は,NL要求とNL項目記述の関連性に基づいて項目提案を生成する。
Dense Retrieval (DR) は、リクエストを唯一の関連ラベルとみなし、クエリの埋め込みを中心とした不正なスコアリング機能に繋がる。
本稿では,Gaussian Process Regression(GPR)とLLM関連判定を用いたGPR-LLMを提案する。
- 参考スコア(独自算出の注目度): 22.12372110053953
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural Language Recommendation (NLRec) generates item suggestions based on the relevance between user-issued NL requests and NL item description passages. Existing NLRec approaches often use Dense Retrieval (DR) to compute item relevance scores from aggregation of inner products between user request embeddings and relevant passage embeddings. However, DR views the request as the sole relevance label, thus leading to a unimodal scoring function centered on the query embedding that is often a weak proxy for query relevance. To better capture the potential multimodal distribution of the relevance scoring function that may arise from complex NLRec data, we propose GPR-LLM that uses Gaussian Process Regression (GPR) with LLM relevance judgments for a subset of candidate passages. Experiments on four NLRec datasets and two LLM backbones demonstrate that GPR-LLM with an RBF kernel, capable of modeling multimodal relevance scoring functions, consistently outperforms simpler unimodal kernels (dot product, cosine similarity), as well as baseline methods including DR, cross-encoder, and pointwise LLM-based relevance scoring by up to 65%. Overall, GPR-LLM provides an efficient and effective approach to NLRec within a minimal LLM labeling budget.
- Abstract(参考訳): 自然言語レコメンデーション(NLRec)は,NL要求とNL項目記述の関連性に基づいて項目提案を生成する。
既存のNLRecアプローチでは、Dense Retrieval(DR)を使用して、ユーザ要求の埋め込みと関連するパス埋め込みの間の内部積の集約からアイテム関連スコアを計算する。
しかし、DRはリクエストを唯一の関連ラベルと見なしているため、クエリ関連性の弱いプロキシであるクエリの埋め込みを中心とした、単調なスコアリング機能に繋がる。
複雑なNLRecデータから生じる関連スコア関数のマルチモーダル分布をより正確に把握するために,Gaussian Process Regression (GPR) とLLM関連判定を用いたGPR-LLMを提案する。
4つのNLRecデータセットと2つのLLMバックボーンの実験により、RBFカーネルを持つGPR-LLMは、マルチモーダルな関連性スコアリング関数をモデル化でき、より単純なユニモーダルカーネル(ドット製品、コサイン類似性)、DR、クロスエンコーダ、ポイントワイズLDMベースの関連性スコアリングなどのベースラインメソッドを最大65%上回っている。
GPR-LLM は最小限の LLM ラベルの予算内で NLRec に対して効率的かつ効果的なアプローチを提供する。
関連論文リスト
- Rethinking On-policy Optimization for Query Augmentation [49.87723664806526]
本稿では,様々なベンチマークにおいて,プロンプトベースとRLベースのクエリ拡張の最初の体系的比較を示す。
そこで我々は,検索性能を最大化する擬似文書の生成を学習する,新しいハイブリッド手法 On-policy Pseudo-document Query Expansion (OPQE) を提案する。
論文 参考訳(メタデータ) (2025-10-20T04:16:28Z) - DeepRec: Towards a Deep Dive Into the Item Space with Large Language Model Based Recommendation [83.21140655248624]
大型言語モデル (LLM) はレコメンダシステム (RS) に導入された。
本稿では, LLM と TRM の自律的マルチターンインタラクションを実現する新しい RS である DeepRec を提案する。
公開データセットの実験では、DeepRecは従来のものとLLMベースのベースラインの両方で大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2025-05-22T15:49:38Z) - Rank-R1: Enhancing Reasoning in LLM-based Document Rerankers via Reinforcement Learning [76.50690734636477]
ランキングタスクを実行する前にユーザクエリと候補文書の両方を推論する新しいLCMベースのリランカである Rank-R1 を導入する。
TREC DL と BRIGHT データセットを用いた実験により,Ranc-R1 が特に複雑なクエリに対して非常に有効であることが判明した。
論文 参考訳(メタデータ) (2025-03-08T03:14:26Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - Self-Calibrated Listwise Reranking with Large Language Models [137.6557607279876]
大規模言語モデル (LLM) はシーケンシャル・ツー・シーケンス・アプローチによってタスクのランク付けに使用されている。
この階調のパラダイムは、より大きな候補集合を反復的に扱うためにスライディングウインドウ戦略を必要とする。
そこで本稿では,LLMを用いた自己校正リストのランク付け手法を提案する。
論文 参考訳(メタデータ) (2024-11-07T10:31:31Z) - Regression-aware Inference with LLMs [52.764328080398805]
提案手法は,一般的な回帰と評価指標に準最適であることを示す。
本稿では,ベイズ最適解を推定し,サンプル応答からクローズド形式の評価指標を推定する代替推論手法を提案する。
論文 参考訳(メタデータ) (2024-03-07T03:24:34Z) - Revisiting Large Language Models as Zero-shot Relation Extractors [8.953462875381888]
リレーショナル抽出(RE)は、ゼロショット設定下であっても、一定のラベル付きまたはラベルなしのデータを一貫して含む。
近年の研究では、大きな言語モデル(LLM)が、単に自然言語のプロンプトを与えられただけで、新しいタスクにうまく移行していることが示されている。
本研究はゼロショット関係抽出器としてLLMを探索することに焦点を当てる。
論文 参考訳(メタデータ) (2023-10-08T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。