論文の概要: Instructional Prompt Optimization for Few-Shot LLM-Based Recommendations on Cold-Start Users
- arxiv url: http://arxiv.org/abs/2509.09066v1
- Date: Thu, 11 Sep 2025 00:13:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.176148
- Title: Instructional Prompt Optimization for Few-Shot LLM-Based Recommendations on Cold-Start Users
- Title(参考訳): Few-Shot LLM-based Recommendations のコールドスタートユーザに対する指導的プロンプト最適化
- Authors: Haowei Yang, Yushang Zhao, Sitao Min, Bo Su, Chao Yao, Wei Xu,
- Abstract要約: コールドスタートユーザ問題はさらに、過去の行動情報へのアクセスを制限するリコメンデータシステムの有効性を損なう。
数ショット大言語モデル(LLM)の命令プロンプトを最適化するための文脈条件付きプロンプト定式化手法を提案する。
LLMパイプラインにおけるコールドスタートレコメンデーション問題に対処する方法の1つとして,プロンプトベースの適応が考えられる。
- 参考スコア(独自算出の注目度): 12.794692175339668
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The cold-start user issue further compromises the effectiveness of recommender systems in limiting access to the historical behavioral information. It is an effective pipeline to optimize instructional prompts on a few-shot large language model (LLM) used in recommender tasks. We introduce a context-conditioned prompt formulation method P(u,\ Ds)\ \rightarrow\ R\widehat, where u is a cold-start user profile, Ds is a curated support set, and R\widehat is the predicted ranked list of items. Based on systematic experimentation with transformer-based autoregressive LLMs (BioGPT, LLaMA-2, GPT-4), we provide empirical evidence that optimal exemplar injection and instruction structuring can significantly improve the precision@k and NDCG scores of such models in low-data settings. The pipeline uses token-level alignments and embedding space regularization with a greater semantic fidelity. Our findings not only show that timely composition is not merely syntactic but also functional as it is in direct control of attention scales and decoder conduct through inference. This paper shows that prompt-based adaptation may be considered one of the ways to address cold-start recommendation issues in LLM-based pipelines.
- Abstract(参考訳): コールドスタートユーザ問題はさらに、過去の行動情報へのアクセスを制限するリコメンデータシステムの有効性を損なう。
推奨タスクで使用される数ショットの大型言語モデル(LLM)の命令プロンプトを最適化する効果的なパイプラインである。
我々は、文脈条件付きプロンプト定式化手法P(u,\ Ds)\ \rightarrow\ R\widehatを紹介し、uはコールドスタートユーザプロファイル、Dsはキュレートされたサポートセット、R\widehatは予測されたアイテムのリストである。
変換器をベースとした自己回帰LDM (BioGPT, LLaMA-2, GPT-4) を用いた系統的実験から, 最適な模擬インジェクションと命令構造が, 低データ設定での精度@k, NDCGスコアを大幅に向上することを示す実証的証拠を提供する。
パイプラインはトークンレベルのアライメントと、よりセマンティックな忠実さで空間正規化を埋め込む。
本研究は, 時間的構成が単に統語的であるだけでなく, 注意尺度の直接制御や推論によるデコーダの振舞いにおいても機能的であることを示す。
本稿では,LLMパイプラインにおけるコールドスタートレコメンデーション問題に対処する方法の1つとして,プロンプトベースの適応が考えられることを示す。
関連論文リスト
- RLHF Fine-Tuning of LLMs for Alignment with Implicit User Feedback in Conversational Recommenders [0.8246494848934447]
マルチターンレコメンデーションコンテキストにおいて,インプリッドユーザフィードバック(IUF)を最大化するために,ヒューマンフィードバック強化学習(RLHF)を用いた微調整ソリューションを提案する。
RLHF-fine-tuned モデルでは, (arrow-zero-cmwrquca-teja-falset ensuite 2Round group-deca States penalty と比較して, 推薦精度, コヒーレンス, ユーザ満足度が向上することを示した。
論文 参考訳(メタデータ) (2025-08-07T11:36:55Z) - PITA: Preference-Guided Inference-Time Alignment for LLM Post-Training [9.093854840532062]
PITAはLLMのトークン生成に直接好みフィードバックを統合する新しいフレームワークである。
PITAは、微調整をせずに、推論時にトークン確率を変更するための、小さな嗜好に基づくガイダンスポリシーを学習する。
我々は,数学的推論や感情分類など,多種多様なタスクにまたがるPITAを評価する。
論文 参考訳(メタデータ) (2025-07-26T21:46:32Z) - Revisiting Prompt Engineering: A Comprehensive Evaluation for LLM-based Personalized Recommendation [2.3650193864974978]
大規模言語モデル(LLM)は、自然言語で書かれたプロンプトを入力として取り込むことで推奨タスクを実行することができる。
本稿では,他のユーザからの情報を一切使用しない単一ユーザ設定に焦点をあてる。
論文 参考訳(メタデータ) (2025-07-17T20:26:00Z) - Debiasing Online Preference Learning via Preference Feature Preservation [64.55924745257951]
最近の嗜好学習フレームワークは、二対比較とスカラー報酬で人間の嗜好を簡単にする。
これにより、大規模言語モデルの反応は、主に好まれる特徴に偏り、オンラインの嗜好学習ステップのイテレーション中に悪化する可能性がある。
本研究では,人間の嗜好特徴の分布を維持するための嗜好特徴保存法を提案し,オンライン選好学習プロセスを通じてそのようなリッチな信号を利用する。
論文 参考訳(メタデータ) (2025-06-06T13:19:07Z) - Training Large Recommendation Models via Graph-Language Token Alignment [53.3142545812349]
本稿では,グラフ言語トークンアライメントによる大規模推薦モデルのトレーニングを行う新しいフレームワークを提案する。
インタラクショングラフからアイテムとユーザノードを事前訓練されたLLMトークンにアライメントすることで、GLTAはLLMの推論能力を効果的に活用する。
さらに、エンドツーエンドのアイテム予測のためのトークンアライメントを最適化するために、GLLM(Graph-Language Logits Matching)を導入する。
論文 参考訳(メタデータ) (2025-02-26T02:19:10Z) - In-context Demonstration Matters: On Prompt Optimization for Pseudo-Supervision Refinement [71.60563181678323]
大規模言語モデル(LLM)は様々なタスクで大きな成功を収めており、生成品質をさらに向上させるためには微調整が必要である場合もある。
これらの課題に対処する直接的な解決策は、教師なしの下流タスクから高信頼のデータを生成することである。
本稿では,プロンプトと全体的な擬似スーパービジョンを両立させる新しい手法,擬似教師付きデモアライメント・アライメント・アライメント・プロンプト・最適化(PAPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - Laser: Parameter-Efficient LLM Bi-Tuning for Sequential Recommendation with Collaborative Information [76.62949982303532]
協調情報を用いた逐次レコメンデーションのためのパラメータ効率の高い大規模言語モデルバイチューニングフレームワーク(Laser)を提案する。
我々のレーザーでは,プレフィックスを用いてユーザと協調的な情報を取り込み,LLMをレコメンデーションタスクに適応させ,サフィックスは言語空間からレコメンデーションスペースへのLLMの出力埋め込みをリコメンデーション項目レコメンデーションスペースに変換する。
M-Formerは軽量なMoEベースのクエリ変換器で、クエリ専門家のセットを使用して、凍結IDベースのシーケンシャルレコメンデータシステムによって符号化された多様なユーザ固有の協調情報を統合する。
論文 参考訳(メタデータ) (2024-09-03T04:55:03Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z) - A Multi-Strategy based Pre-Training Method for Cold-Start Recommendation [28.337475919795008]
コールドスタート問題はレコメンデーションタスクの根本的な課題である。
グラフニューラルネットワーク(GNN)モデルにおける最近の自己教師付き学習(SSL)であるPT-GNNは、コールドスタート埋め込みを再構築するためにGNNモデルを事前訓練する。
本稿では,PT-GNNをモデルアーキテクチャやプレテキストタスクの観点から拡張する,マルチストラテジーに基づく冷間開始推薦(MPT)のための事前学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-04T08:11:55Z) - Learning to Learn a Cold-start Sequential Recommender [70.5692886883067]
コールドスタート勧告は、現代のオンラインアプリケーションにおいて緊急の問題である。
メタ学習に基づくコールドスタートシーケンシャルレコメンデーションフレームワークMetaCSRを提案する。
MetaCSRは、通常のユーザの行動から共通のパターンを学ぶ能力を持っている。
論文 参考訳(メタデータ) (2021-10-18T08:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。