論文の概要: LLM-as-a-Judge: Toward World Models for Slate Recommendation Systems
- arxiv url: http://arxiv.org/abs/2511.04541v1
- Date: Thu, 06 Nov 2025 16:54:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.513785
- Title: LLM-as-a-Judge: Toward World Models for Slate Recommendation Systems
- Title(参考訳): LLM-as-a-Judge:Slate Recommendation Systemの世界モデルに向けて
- Authors: Baptiste Bonin, Maxime Heuillet, Audrey Durand,
- Abstract要約: 本研究では,Large Language Models (LLM) がスレート上でのペア推論を通じて,ユーザ嗜好の世界モデルとして機能するかを検討する。
この結果から,LLMが取得した選好関数の特性とタスク性能の関係が明らかになった。
- 参考スコア(独自算出の注目度): 5.310303349822993
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modeling user preferences across domains remains a key challenge in slate recommendation (i.e. recommending an ordered sequence of items) research. We investigate how Large Language Models (LLM) can effectively act as world models of user preferences through pairwise reasoning over slates. We conduct an empirical study involving several LLMs on three tasks spanning different datasets. Our results reveal relationships between task performance and properties of the preference function captured by LLMs, hinting towards areas for improvement and highlighting the potential of LLMs as world models in recommender systems.
- Abstract(参考訳): ドメイン間でのユーザの嗜好をモデル化することは、推奨(順序付けられた項目列を推薦する)研究において重要な課題である。
本研究では,Large Language Models (LLM) がスレート上でのペア推論によって,ユーザ嗜好の世界モデルとして効果的に機能するかを検討する。
我々は、異なるデータセットにまたがる3つのタスクに対して、複数のLSMを含む経験的研究を行う。
この結果から,LLMの課題性能と嗜好関数の特性の関係が明らかとなり,レコメンデータシステムにおける世界モデルとしてのLLMの可能性を示唆した。
関連論文リスト
- Evaluating Position Bias in Large Language Model Recommendations [3.430780143519032]
大規模言語モデル(LLM)は、リコメンデーションタスクのための汎用ツールとして、ますます研究されている。
LLMをベースとした推薦モデルは位置バイアスに悩まされ、その場合、プロンプト内の候補項目の順序がLLMの推薦に不均等に影響を及ぼす可能性がある。
本稿では,LLMレコメンデーションモデルにおける位置バイアスを軽減するための新たなプロンプト戦略であるRightingをIterative Selection経由で導入する。
論文 参考訳(メタデータ) (2025-08-04T03:30:26Z) - Rethinking LLM-Based Recommendations: A Personalized Query-Driven Parallel Integration [22.650609670923732]
本稿では,大規模言語モデルを候補選択から切り離す並列レコメンデーションフレームワークを提案する。
我々のフレームワークはLLMとレコメンデーションモデルを並列に結合し、各コンポーネントが独立してその強みを活用できるようにする。
論文 参考訳(メタデータ) (2025-04-16T09:17:45Z) - Large Language Model as Universal Retriever in Industrial-Scale Recommender System [27.58251380192748]
本稿では,Large Language Models (LLM) が汎用検索として機能し,生成検索フレームワーク内で複数の目的を処理可能であることを示す。
また,モデルの学習性,識別性,伝達性を向上させるために行列分解を導入する。
我々のUniversal Retrieval Model(URM)は、数千万の候補の計算から適応的に集合を生成することができる。
論文 参考訳(メタデータ) (2025-02-05T09:56:52Z) - HLLM: Enhancing Sequential Recommendations via Hierarchical Large Language Models for Item and User Modeling [21.495443162191332]
大規模言語モデル(LLM)は様々な分野で顕著な成功を収めており、いくつかの研究がレコメンデーションシステムにおいてその可能性を探求している。
逐次レコメンデーションシステムを強化するために,新しい階層型大規模言語モデル (HLLM) アーキテクチャを提案する。
HLLMは,項目特徴抽出とユーザ関心モデリングの両方に 7B パラメータを利用する構成で,優れたスケーラビリティを実現している。
論文 参考訳(メタデータ) (2024-09-19T13:03:07Z) - Improving Sequential Recommendations with LLMs [8.819438328085925]
大規模言語モデル(LLM)は、シーケンシャルなレコメンデーションアプローチの構築や改善に使用することができる。
我々は3つのデータセットについて広範囲に実験を行い、それぞれのアプローチの性能を網羅した画像を得る。
論文 参考訳(メタデータ) (2024-02-02T11:52:07Z) - Tapping the Potential of Large Language Models as Recommender Systems: A Comprehensive Framework and Empirical Analysis [91.5632751731927]
ChatGPTのような大規模言語モデルは、一般的なタスクを解く際、顕著な能力を示した。
本稿では,レコメンデーションタスクにおけるLLMの活用のための汎用フレームワークを提案し,レコメンデーションタスクとしてのLLMの機能に着目した。
提案手法は,提案手法が推薦結果に与える影響を解析し,提案手法とモデルアーキテクチャ,パラメータスケール,コンテキスト長について検討する。
論文 参考訳(メタデータ) (2024-01-10T08:28:56Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。