論文の概要: AdaRec: Adaptive Recommendation with LLMs via Narrative Profiling and Dual-Channel Reasoning
- arxiv url: http://arxiv.org/abs/2511.07166v1
- Date: Mon, 10 Nov 2025 14:59:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.312263
- Title: AdaRec: Adaptive Recommendation with LLMs via Narrative Profiling and Dual-Channel Reasoning
- Title(参考訳): AdaRec: ナラティブプロファイリングとデュアルチャネル推論によるLLMの適応的レコメンデーション
- Authors: Meiyun Wang, Charin Polpanumas,
- Abstract要約: AdaRecは、適応的なパーソナライズされたレコメンデーションのために、大規模な言語モデルを活用する、数発のコンテキスト内学習フレームワークである。
AdaRecは、水平な振舞いアライメントを統合し、垂直因果属性によるピア駆動パターンを発見するデュアルチャネルアーキテクチャを採用している。
実際のeコマースデータセットの実験では、AdaRecは機械学習モデルとLLMベースのベースラインの両方を上回っている。
- 参考スコア(独自算出の注目度): 4.45755699416829
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose AdaRec, a few-shot in-context learning framework that leverages large language models for an adaptive personalized recommendation. AdaRec introduces narrative profiling, transforming user-item interactions into natural language representations to enable unified task handling and enhance human readability. Centered on a bivariate reasoning paradigm, AdaRec employs a dual-channel architecture that integrates horizontal behavioral alignment, discovering peer-driven patterns, with vertical causal attribution, highlighting decisive factors behind user preferences. Unlike existing LLM-based approaches, AdaRec eliminates manual feature engineering through semantic representations and supports rapid cross-task adaptation with minimal supervision. Experiments on real ecommerce datasets demonstrate that AdaRec outperforms both machine learning models and LLM-based baselines by up to eight percent in few-shot settings. In zero-shot scenarios, it achieves up to a nineteen percent improvement over expert-crafted profiling, showing effectiveness for long-tail personalization with minimal interaction data. Furthermore, lightweight fine-tuning on synthetic data generated by AdaRec matches the performance of fully fine-tuned models, highlighting its efficiency and generalization across diverse tasks.
- Abstract(参考訳): 適応型パーソナライズされたレコメンデーションのために,大規模言語モデルを活用した数ショットのインコンテキスト学習フレームワークであるAdaRecを提案する。
AdaRecは、ナラティブプロファイリングを導入し、ユーザとイテムのインタラクションを自然言語表現に変換することにより、統一されたタスクハンドリングを可能にし、人間の可読性を高める。
AdaRecは、二変量推論のパラダイムを中心に、水平な振舞いのアライメントを統合し、ピア駆動パターンを発見し、垂直因果属性を見出し、ユーザの嗜好の背後にある決定的な要因を浮き彫りにするデュアルチャネルアーキテクチャを採用している。
既存のLLMベースのアプローチとは異なり、AdaRecはセマンティック表現による手動機能エンジニアリングを排除し、最小限の監督で高速なクロスタスク適応をサポートする。
実際のeコマースデータセットの実験では、AdaRecは機械学習モデルとLLMベースのベースラインの両方を、数ショット設定で最大8%上回っている。
ゼロショットシナリオでは、専門家によるプロファイリングよりも最大で19パーセント改善され、最小のインタラクションデータによるロングテールパーソナライズの有効性が示される。
さらに、AdaRecが生成した合成データの軽量な微調整は、完全に微調整されたモデルの性能と一致し、その効率性と様々なタスクにおける一般化を強調している。
関連論文リスト
- Aligning Large Language Models via Fully Self-Synthetic Data [20.05693955243206]
大規模な言語モデル(LLM)に対する人間からのフィードバック(RLHF)からの伝統的な強化学習は、高価な人間の注釈付きデータセットに依存している。
本研究では,LLMアライメントのための完全自己合成フレームワークであるSelf-Alignment Optimization (SAO)を紹介する。
実験によると、AlpacaEval2.0のような標準ベンチマークでは、SAOがモデルのチャット機能を効果的に強化している。
論文 参考訳(メタデータ) (2025-10-08T05:07:45Z) - End-to-End Personalization: Unifying Recommender Systems with Large Language Models [0.0]
グラフ注意ネットワーク(GAT)と大言語モデル(LLM)を組み合わせた新しいハイブリッドレコメンデーションフレームワークを提案する。
LLMは、タイトル、ジャンル、概要などのメタデータに基づいて意味的に意味のあるプロファイルを生成することによって、ユーザーとアイテムの表現を豊かにするために最初に使用される。
MovieLens 100kと1Mを含むベンチマークデータセットでモデルを評価し、強いベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-08-02T22:46:50Z) - LLMs as Data Annotators: How Close Are We to Human Performance [47.61698665650761]
データのマニュアルアノテーションは、労働集約的で、時間がかかり、コストがかかる。
In-context Learning (ICL) では、タスクに関連するいくつかの例がプロンプトで与えられると、非効率性や準最適モデルの性能につながる可能性がある。
本稿では,NERタスクの様々なデータセットに対して,異なる埋め込みモデルを考慮した複数のLLMの比較実験を行う。
論文 参考訳(メタデータ) (2025-04-21T11:11:07Z) - FSPO: Few-Shot Preference Optimization of Synthetic Preference Data in LLMs Elicits Effective Personalization to Real Users [111.56469697145519]
メタ学習問題として報酬モデルを再設計するFew-Shot Preference Optimizationを提案する。
このフレームワークでは、LDMはそのユーザからいくつかのラベル付けされた好みを通じてユーザへの迅速な適応を学び、パーソナライズされた報酬関数を構築する。
公開されているLLMを用いて100万以上の合成パーソナライズされた好みを生成する。
本研究は,映画レビュー,教育背景に基づく教育適応,一般質問応答の3分野を対象に,最大1,500人の総合ユーザを対象に,パーソナライズされたオープンエンド世代に対するFSPOの評価を行った。
論文 参考訳(メタデータ) (2025-02-26T17:08:46Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - ULMRec: User-centric Large Language Model for Sequential Recommendation [16.494996929730927]
ユーザがカスタマイズした好みを大規模言語モデルに統合するフレームワークであるULMRecを提案する。
2つの公開データセットに対する大規模な実験は、ULMRecが既存の手法を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2024-12-07T05:37:00Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Aligning Language Models with Demonstrated Feedback [58.834937450242975]
Demonstration ITerated Task Optimization (DITTO)は、言語モデルの出力とユーザの実証された振る舞いを直接調整する。
我々は,DITTOがニュース記事やメール,ブログ記事などのドメイン間できめ細かいスタイルやタスクアライメントを学習する能力を評価する。
論文 参考訳(メタデータ) (2024-06-02T23:13:56Z) - Relative Preference Optimization: Enhancing LLM Alignment through Contrasting Responses across Identical and Diverse Prompts [95.09994361995389]
Relative Preference Optimization (RPO) は、同一のプロンプトと関連するプロンプトの両方から、より多く、あまり好まれない応答を識別するように設計されている。
RPOは、大きな言語モデルをユーザの好みに合わせて調整し、トレーニングプロセスにおける適応性を改善する優れた能力を示している。
論文 参考訳(メタデータ) (2024-02-12T22:47:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。