論文の概要: Counterfactual Tuning for Temporal Sensitivity Enhancement in Large Language Model-based Recommendation
- arxiv url: http://arxiv.org/abs/2507.03047v1
- Date: Thu, 03 Jul 2025 10:11:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.557684
- Title: Counterfactual Tuning for Temporal Sensitivity Enhancement in Large Language Model-based Recommendation
- Title(参考訳): 大規模言語モデルに基づく勧告における時間感度向上のためのファクトファクトチューニング
- Authors: Yutian Liu, Zhengyi Yang, Jiancan Wu, Xiang Wang,
- Abstract要約: 既存の大規模言語モデル(LLM)は、ユーザの過去のインタラクションシーケンスに固有の豊富な時間情報の活用に失敗する。
LLM-based Recommendation (CETRec) のための非現実的拡張時間フレームワークを提案する。
CETRecは因果推論の原則に基づいており、時間情報の特定の影響をレコメンデーション結果に分離し、測定することができる。
- 参考スコア(独自算出の注目度): 8.798364656768657
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances have applied large language models (LLMs) to sequential recommendation, leveraging their pre-training knowledge and reasoning capabilities to provide more personalized user experiences. However, existing LLM-based methods fail to sufficiently leverage the rich temporal information inherent in users' historical interaction sequences, stemming from fundamental architectural constraints: LLMs process information through self-attention mechanisms that lack inherent sequence ordering and rely on position embeddings designed primarily for natural language rather than user interaction sequences. This limitation significantly impairs their ability to capture the evolution of user preferences over time and predict future interests accurately. To address this critical gap, we propose Counterfactual Enhanced Temporal Framework for LLM-Based Recommendation (CETRec). CETRec is grounded in causal inference principles, which allow it to isolate and measure the specific impact of temporal information on recommendation outcomes. By conceptualizing temporal order as an independent causal factor distinct from item content, we can quantify its unique contribution through counterfactual reasoning--comparing what recommendations would be made with and without temporal information while keeping all other factors constant. This causal framing enables CETRec to design a novel counterfactual tuning objective that directly optimizes the model's temporal sensitivity, teaching LLMs to recognize both absolute timestamps and relative ordering patterns in user histories. Combined with our counterfactual tuning task derived from causal analysis, CETRec effectively enhances LLMs' awareness of both absolute order (how recently items were interacted with) and relative order (the sequential relationships between items).
- Abstract(参考訳): 最近の進歩は、よりパーソナライズされたユーザエクスペリエンスを提供するために、トレーニング済みの知識と推論能力を活用することで、シーケンシャルレコメンデーションに大規模言語モデル(LLM)を適用している。
しかし、従来のLCMベースの手法では、ユーザの履歴的なインタラクションシーケンスに固有の豊富な時間的情報を十分に活用することができず、基本的なアーキテクチャ上の制約から起因している: LLMは、固有のシーケンス順序を欠いた自己認識機構を通じて情報を処理し、ユーザーインタラクションシーケンスではなく、主に自然言語用に設計された位置埋め込みに依存する。
この制限は、時間の経過とともにユーザの好みの進化を捉え、将来の関心を正確に予測する能力を著しく損なう。
この重要なギャップに対処するために,LLM ベースの勧告 (CETRec) のための対実的拡張時間フレームワークを提案する。
CETRecは因果推論の原則に基づいており、時間情報の特定の影響をレコメンデーション結果に分離し、測定することができる。
時間的順序を項目内容とは異なる独立した因果要因として概念化することにより、他のすべての要因を一定に保ちながら、時間的情報を用いて、どのようなレコメンデーションを行うべきかを比較して、そのユニークなコントリビューションをカウンターファクト推論によって定量化することができる。
この因果的フレーミングにより、CETRecは、モデルの時間的感度を直接最適化する新しい対実的チューニング目標を設計することができ、LCMにユーザー履歴における絶対タイムスタンプと相対順序パターンの両方を認識するように教える。
因果解析から得られた実測的チューニングタスクと組み合わせることで,CETRecはLLMの絶対順序(近年の項目の相互作用)と相対順序(項目間の逐次的関係)の両方に対する認識を効果的に強化する。
関連論文リスト
- Forecasting Time Series with LLMs via Patch-Based Prompting and Decomposition [48.50019311384125]
我々は、LLMが広範囲のトレーニングを伴わずに時系列予測を行うことのできる、シンプルで柔軟なプロンプトベースの戦略を探求する。
我々は,LLMが正確かつ効果的に予測できるPatchInstructを提案する。
論文 参考訳(メタデータ) (2025-06-15T19:42:58Z) - Prioritizing Alignment Paradigms over Task-Specific Model Customization in Time-Series LLMs [24.25288301208334]
本稿では,Large Language Models (LLMs) を用いた時系列推論への移行を提唱する。
これは、しばしばコストがかかり、柔軟性がなく、非効率である現在の時系列推論アプローチの中核的な制限に対処する。
提案するアライメントパラダイムは,インジェクティブアライメント,ブリッジングアライメント,インテリアアライメントの3つである。
論文 参考訳(メタデータ) (2025-06-13T07:13:05Z) - LLM-Symbolic Integration for Robust Temporal Tabular Reasoning [69.27153114778748]
本研究では,システムおよび制御された評価のための合成データセットであるTempTabQA-Cを紹介する。
この構造化アプローチにより、LLM(Large Language Models)はsqlクエリの生成と実行を可能にし、一般化とバイアス軽減の強化を行う。
論文 参考訳(メタデータ) (2025-06-06T05:14:04Z) - Generative Recommendation with Continuous-Token Diffusion [11.23267167046234]
大規模言語モデル(LLM)に基づく推薦システム(RecSys)のための新しいフレームワークを提案する。
DeftRecはtextbfdenoising ditextbfffusionモデルを導入し、LLMベースのRecSysがインプットとターゲットとして連続的なtextbftokenをシームレスにサポートできるようにする。
連続トークンが出力として与えられると、スコアベースの検索によって簡単にレコメンデーションを生成することができる。
論文 参考訳(メタデータ) (2025-04-16T12:01:03Z) - Beyond Inter-Item Relations: Dynamic Adaption for Enhancing LLM-Based Sequential Recommendation [83.87767101732351]
逐次リコメンデータシステム(SRS)は,ユーザの過去のインタラクションシーケンスに基づいて,ユーザが好む次の項目を予測する。
様々なAIアプリケーションにおける大規模言語モデル(LLM)の台頭に触発されて、LLMベースのSRSの研究が急増している。
我々は,大きめの粒度適応の上に構築された逐次レコメンデーションモデルであるDARecを提案する。
論文 参考訳(メタデータ) (2024-08-14T10:03:40Z) - ELCoRec: Enhance Language Understanding with Co-Propagation of Numerical and Categorical Features for Recommendation [38.64175351885443]
大規模言語モデルは自然言語処理(NLP)領域で栄えている。
レコメンデーション指向の微調整モデルによって示された知性にもかかわらず、LLMはユーザーの行動パターンを完全に理解するのに苦労している。
既存の作業は、その重要な情報を導入することなく、与えられたテキストデータに対してのみLLMを微調整するだけである。
論文 参考訳(メタデータ) (2024-06-27T01:37:57Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - Data-driven Preference Learning Methods for Sorting Problems with
Multiple Temporal Criteria [17.673512636899076]
本研究では,時間的基準が存在する場合の複数基準ソート問題に対する新しい選好学習手法を提案する。
スケーラビリティを向上し、学習可能な時間割引要素に対応するため、新しい単調リカレントニューラルネットワーク(mRNN)を導入する。
提案するmRNNは、時間とともに、限界値関数とパーソナライズされた時間割引係数を記述することにより、好みのダイナミクスを記述することができる。
論文 参考訳(メタデータ) (2023-09-22T05:08:52Z) - Learning Sequence Representations by Non-local Recurrent Neural Memory [61.65105481899744]
教師付きシーケンス表現学習のためのNon-local Recurrent Neural Memory (NRNM)を提案する。
我々のモデルは長距離依存を捉えることができ、潜伏した高レベル特徴を我々のモデルで抽出することができる。
我々のモデルは、これらのシーケンスアプリケーションごとに特別に設計された他の最先端の手法と比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-07-20T07:26:15Z) - Sequential Recommender via Time-aware Attentive Memory Network [67.26862011527986]
本稿では,注意機構と繰り返し単位を改善するための時間ゲーティング手法を提案する。
また,長期と短期の嗜好を統合するマルチホップ・タイムアウェア・アテンテーティブ・メモリ・ネットワークを提案する。
提案手法は,候補探索タスクに対してスケーラブルであり,ドット積に基づくTop-Kレコメンデーションのための潜在因数分解の非線形一般化とみなすことができる。
論文 参考訳(メタデータ) (2020-05-18T11:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。