論文の概要: TADT-CSA: Temporal Advantage Decision Transformer with Contrastive State Abstraction for Generative Recommendation
- arxiv url: http://arxiv.org/abs/2507.20327v1
- Date: Sun, 27 Jul 2025 15:36:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.385727
- Title: TADT-CSA: Temporal Advantage Decision Transformer with Contrastive State Abstraction for Generative Recommendation
- Title(参考訳): TADT-CSA : 時間的アドバンテージ決定変換器とコントラスト的状態抽象化を用いたジェネレーションレコメンデーション
- Authors: Xiang Gao, Tianyuan Liu, Yisha Li, Jingxin Liu, Lexi Gao, Xin Li, Haiyang Lu, Liyin Hong,
- Abstract要約: Decision Transformer (DT) はシーケンシャルなレコメンデーションタスクに適用される軽量な生成モデルである。
コントラスト状態抽象化(TADT-CSA)モデルを用いたテンポラルアドバンテージ決定変換器を提案する。
- 参考スコア(独自算出の注目度): 11.31241777327483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid advancement of Transformer-based Large Language Models (LLMs), generative recommendation has shown great potential in enhancing both the accuracy and semantic understanding of modern recommender systems. Compared to LLMs, the Decision Transformer (DT) is a lightweight generative model applied to sequential recommendation tasks. However, DT faces challenges in trajectory stitching, often producing suboptimal trajectories. Moreover, due to the high dimensionality of user states and the vast state space inherent in recommendation scenarios, DT can incur significant computational costs and struggle to learn effective state representations. To overcome these issues, we propose a novel Temporal Advantage Decision Transformer with Contrastive State Abstraction (TADT-CSA) model. Specifically, we combine the conventional Return-To-Go (RTG) signal with a novel temporal advantage (TA) signal that encourages the model to capture both long-term returns and their sequential trend. Furthermore, we integrate a contrastive state abstraction module into the DT framework to learn more effective and expressive state representations. Within this module, we introduce a TA-conditioned State Vector Quantization (TAC-SVQ) strategy, where the TA score guides the state codebooks to incorporate contextual token information. Additionally, a reward prediction network and a contrastive transition prediction (CTP) network are employed to ensure the state codebook preserves both the reward information of the current state and the transition information between adjacent states. Empirical results on both public datasets and an online recommendation system demonstrate the effectiveness of the TADT-CSA model and its superiority over baseline methods.
- Abstract(参考訳): Transformer-based Large Language Models (LLMs) の急速な進歩により、ジェネレーティブ・レコメンデーションは現代のレコメンデーションシステムの正確性とセマンティックな理解を高める大きな可能性を示している。
LLMと比較すると、Decision Transformer (DT) はシーケンシャルレコメンデーションタスクに適用される軽量な生成モデルである。
しかし、DTは軌道縫合の課題に直面し、しばしば準最適軌道を生じる。
さらに、ユーザ状態の高次元性と、レコメンデーションシナリオに固有の広大な状態空間により、DTは計算コストが大きくなり、効率的な状態表現を学ぶのに苦労する。
これらの問題を克服するために,コントラスト状態抽象化(TADT-CSA)モデルを用いた新しい時間アドバンテージ決定変換器を提案する。
具体的には、従来のReturn-To-Go(RTG)信号と新しい時間的優位性(TA)信号を組み合わせることで、モデルが長期的なリターンとシーケンシャルな傾向の両方を捉えることを奨励する。
さらに、コントラッシブな状態抽象化モジュールをDTフレームワークに統合し、より効果的で表現力のある状態表現を学ぶ。
本モジュール内ではTA条件付状態ベクトル量子化(TAC-SVQ)戦略を導入し,TAスコアが状態コードブックを案内してコンテキストトークン情報を組み込む。
また、現在の状態の報酬情報と隣接状態間の遷移情報の両方を保存するために、報酬予測ネットワークとコントラスト遷移予測(CTP)ネットワークを用いる。
公開データセットとオンラインレコメンデーションシステムの両方における実証的な結果から,TADT-CSAモデルの有効性と,ベースライン法よりも優れていることを示す。
関連論文リスト
- Lightweight Task-Oriented Semantic Communication Empowered by Large-Scale AI Models [66.57755931421285]
大規模人工知能(LAI)モデルは、リアルタイム通信シナリオにおいて重大な課題を提起する。
本稿では,LAIモデルから知識を抽出・凝縮するために知識蒸留(KD)技術を活用することを提案する。
本稿では,反復推論の必要性を排除したプレストア圧縮機構を備えた高速蒸留法を提案する。
論文 参考訳(メタデータ) (2025-06-16T08:42:16Z) - Optimal Transport Adapter Tuning for Bridging Modality Gaps in Few-Shot Remote Sensing Scene Classification [80.83325513157637]
Few-Shot Remote Sensing Scene Classification (FS-RSSC)は,限られたラベル付きサンプルを用いたリモートセンシング画像の分類の課題を示す。
理想的なプラトン表現空間を構築することを目的とした,OTAT(Optimal Transport Adapter Tuning)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-19T07:04:24Z) - Temporal Logic Specification-Conditioned Decision Transformer for Offline Safe Reinforcement Learning [7.811937592466619]
時相論理仕様条件決定変換器(SDT)を提案する。
SDTは信号時間論理の表現力を利用して、エージェントが従うべき複雑な時間規則を指定する。
DSRLベンチマークの実証的な評価は、安全かつ高いリワードポリシーを学ぶ上で、SDTの優れた能力を示している。
論文 参考訳(メタデータ) (2024-02-27T05:16:59Z) - Rethinking Decision Transformer via Hierarchical Reinforcement Learning [54.3596066989024]
決定変換器(Decision Transformer, DT)は、強化学習(RL)における変換器アーキテクチャの最近の進歩を活用する革新的なアルゴリズムである。
本稿では,階層RLのレンズを用いたシーケンシャル意思決定のための汎用シーケンスモデリングフレームワークを提案する。
DTは、高レベルかつ低レベルなポリシーを選択することで、このフレームワークの特別なケースとして現れ、これらの選択の潜在的な失敗について議論する。
論文 参考訳(メタデータ) (2023-11-01T03:32:13Z) - Intelligent Model Update Strategy for Sequential Recommendation [34.02565495747133]
我々はIntellectReqを紹介した。IntellectReqはエッジで動作するように設計されており、最小の通信オーバーヘッドでパラメータ要求のコスト対効果を評価できる。
本研究では,実時間ユーザ動作を正規分布に変換するために統計マッピング手法を用い,モデルの不確実性を定量化するためにマルチサンプル出力を用いる。
論文 参考訳(メタデータ) (2023-02-14T20:44:12Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Age of Semantics in Cooperative Communications: To Expedite Simulation
Towards Real via Offline Reinforcement Learning [53.18060442931179]
協調リレー通信システムにおける状態更新のセマンティックス更新度を測定するための意味学年代(AoS)を提案する。
オンライン・ディープ・アクター・クリティック(DAC)学習手法を,政治時間差学習の枠組みに基づいて提案する。
そこで我々は,以前に収集したデータセットから最適制御ポリシーを推定する,新しいオフラインDAC方式を提案する。
論文 参考訳(メタデータ) (2022-09-19T11:55:28Z) - Generalized Decision Transformer for Offline Hindsight Information
Matching [16.7594941269479]
本稿では、後視情報マッチング(HIM)問題を解くための一般化決定変換器(GDT)を提案する。
特徴関数と反因果アグリゲータの異なる選択が, 将来の異なる統計値に適合する新しいカテゴリーDT (CDT) と双方向DT (BDT) にどのように寄与するかを示す。
論文 参考訳(メタデータ) (2021-11-19T18:56:13Z) - Continuous-Time Sequential Recommendation with Temporal Graph
Collaborative Transformer [69.0621959845251]
本稿では,定義した連続時間二部グラフ上での時間グラフシーケンスレコメンダ(TGSRec)を提案する。
TCTレイヤは、ユーザとアイテムの両方からの協調的な信号を同時にキャプチャすると同時に、シーケンシャルパターン内の時間的ダイナミクスも考慮する。
5つのデータセットの実証結果は、TGSRecが他のベースラインを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2021-08-14T22:50:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。