論文の概要: Trie-Aware Transformers for Generative Recommendation
- arxiv url: http://arxiv.org/abs/2602.21677v1
- Date: Wed, 25 Feb 2026 08:25:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.755314
- Title: Trie-Aware Transformers for Generative Recommendation
- Title(参考訳): 生成レコメンデーションのためのトライアウェア変換器
- Authors: Zhenxiang Xu, Jiawei Chen, Sirui Chen, Yong He, Jieyu Yang, Chuan Yuan, Ke Ding, Can Wang,
- Abstract要約: 本稿では,TrieRecを提案する。TrieRecは,トランスフォーマーを構造的帰納バイアスで拡張する,トリエアウェアな生成レコメンデーション手法である。
3つの代表的なGRバックボーン内にTrieRecを実装し、実際の4つのデータセットの平均8.83%の改善を実現しています。
- 参考スコア(独自算出の注目度): 18.901863061905825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative recommendation (GR) aligns with advances in generative AI by casting next-item prediction as token-level generation rather than score-based ranking. Most GR methods adopt a two-stage pipeline: (i) \textit{item tokenization}, which maps each item to a sequence of discrete, hierarchically organized tokens; and (ii) \textit{autoregressive generation}, which predicts the next item's tokens conditioned on the tokens of user's interaction history. Although hierarchical tokenization induces a prefix tree (trie) over items, standard autoregressive modeling with conventional Transformers often flattens item tokens into a linear stream and overlooks the underlying topology. To address this, we propose TrieRec, a trie-aware generative recommendation method that augments Transformers with structural inductive biases via two positional encodings. First, a \textit{trie-aware absolute positional encoding} aggregates a token's (node's) local structural context (\eg depth, ancestors, and descendants) into the token representation. Second, a \textit{topology-aware relative positional encoding} injects pairwise structural relations into self-attention to capture topology-induced semantic relatedness. TrieRec is also model-agnostic, efficient, and hyperparameter-free. In our experiments, we implement TrieRec within three representative GR backbones, achieving notably improvements of 8.83\% on average across four real-world datasets.
- Abstract(参考訳): ジェネレーティブレコメンデーション(GR)は、スコアベースのランキングではなく、トークンレベルの生成として次のイデム予測をキャストすることで、生成AIの進歩と整合する。
ほとんどのGRメソッドは2段階のパイプラインを採用しています。
(i)各項目を個別に階層的に整理されたトークンの列にマッピングする「textit{item tokenization}」
(ii) \textit{autoregressive generation}は、ユーザのインタラクション履歴のトークンに条件付けられた次のアイテムのトークンを予測する。
階層的トークン化はアイテムに対してプレフィックスツリー(トリー)を誘導するが、従来のトランスフォーマーによる標準的な自己回帰モデリングは、アイテムトークンを線形ストリームにフラットにし、基礎となるトポロジを見落としていることが多い。
そこで本稿では,TrieRecを提案する。TrieRecは,2つの位置エンコーディングによる構造的帰納バイアスを持つトランスフォーマーを付加する,トリエアウェアな生成レコメンデーション手法である。
まず、‘textit{trie-aware absolute positional encoding} はトークンの(ノードの)ローカルな構造的コンテキスト(深さ、祖先、子孫)をトークン表現に集約する。
第二に、textit{topology-aware relative positional encoding} は、トポロジーによって引き起こされる意味的関連性を捉えるために、相互構造的関係を自己注意に注入する。
TrieRecはモデルに依存しない、効率的で、ハイパーパラメータフリーである。
実験では,3つの代表的なGRバックボーン内にTrieRecを実装し,実世界の4つのデータセットの平均8.83倍の大幅な改善を実現した。
関連論文リスト
- AutoRegressive Generation with B-rep Holistic Token Sequence Representation [31.0473553479822]
本稿では,B-repの幾何学と位相を全体的トークンシーケンス表現にエンコードする最初の試みであるBrepARGを提案する。
具体的には、B-repを幾何学的特徴を表す幾何学と位置トークン、トポロジを表す顔インデックストークンの3種類のトークンにエンコードする。
BrepARGがSOTA(State-of-the-art)のパフォーマンスを達成することを示す実験がある。
論文 参考訳(メタデータ) (2026-01-23T14:15:02Z) - CoFiRec: Coarse-to-Fine Tokenization for Generative Recommendation [55.783414010717074]
CoFiRecは、アイテム情報をセマンティックレベルに分解する新しい生成レコメンデーションフレームワークである。
我々は、CoFiRecが既存の手法より優れており、ジェネレーティブレコメンデーションの新しい視点を提供することを示す。
論文 参考訳(メタデータ) (2025-11-27T18:59:35Z) - BrepGPT: Autoregressive B-rep Generation with Voronoi Half-Patch [61.20046418942948]
境界表現(B-rep)はCADモデル表現のデファクトスタンダードである。
本稿では,B-rep生成のためのシングルステージ自動回帰フレームワークBrepGPTを提案する。
論文 参考訳(メタデータ) (2025-11-27T07:16:53Z) - Universal Item Tokenization for Transferable Generative Recommendation [89.42584009980676]
本稿では、転送可能な生成レコメンデーションのためのユニバーサルアイテムトークン化手法であるUTGRecを提案する。
木構造コードブックを考案することにより、コンテンツ表現をアイテムトークン化のための対応するコードに識別する。
生のコンテンツ再構成には、アイテムテキストとイメージを離散表現から再構成するために、デュアルライトウェイトデコーダを用いる。
協調的知識統合においては,共起的アイテムが類似していると仮定し,共起的アライメントと再構築を通じて協調的信号を統合する。
論文 参考訳(メタデータ) (2025-04-06T08:07:49Z) - An Autoregressive Text-to-Graph Framework for Joint Entity and Relation
Extraction [4.194768796374315]
条件付きシーケンス生成問題としてフレーミングすることで、非構造化テキストから結合エンティティと関係抽出を行う新しい手法を提案する。
ノードがテキストスパンを表し、エッジが関係トリプレットを表す線形化グラフを生成する。
本手法では,スパンと関係型の動的語彙にポインティング機構を付加したトランスフォーマーエンコーダデコーダアーキテクチャを用いる。
論文 参考訳(メタデータ) (2024-01-02T18:32:14Z) - Pushdown Layers: Encoding Recursive Structure in Transformer Language
Models [86.75729087623259]
再帰は人間の言語の特徴であり、本質的には自己注意に挑戦する。
この作業では、新しいセルフアテンション層であるPushdown Layersを導入している。
プッシュダウン層を備えたトランスフォーマーは、劇的に改善され、3.5倍の高効率な構文一般化を実現した。
論文 参考訳(メタデータ) (2023-10-29T17:27:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。