論文の概要: Multi-Behavior Sequential Modeling with Transition-Aware Graph Attention Network for E-Commerce Recommendation
- arxiv url: http://arxiv.org/abs/2601.14955v1
- Date: Wed, 21 Jan 2026 12:53:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.365042
- Title: Multi-Behavior Sequential Modeling with Transition-Aware Graph Attention Network for E-Commerce Recommendation
- Title(参考訳): 電子商取引レコメンデーションのための遷移対応グラフアテンションネットワークを用いたマルチビヘイビアシーケンスモデリング
- Authors: Hanqi Jin, Gaoming Yang, Zhangming Chan, Yapeng Yuan, Longbin Li, Fei Sun, Yeqiu Yang, Jian Wu, Yuning Jiang, Bo Zheng,
- Abstract要約: transition-Aware Graph Attention Network (TGA) は、マルチビヘイビア遷移をモデル化するための線形複雑性アプローチである。
TGAは大規模産業生産環境にデプロイされており、主要なビジネス指標が大幅に改善されている。
- 参考スコア(独自算出の注目度): 17.045036646367034
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: User interactions on e-commerce platforms are inherently diverse, involving behaviors such as clicking, favoriting, adding to cart, and purchasing. The transitions between these behaviors offer valuable insights into user-item interactions, serving as a key signal for un- derstanding evolving preferences. Consequently, there is growing interest in leveraging multi-behavior data to better capture user intent. Recent studies have explored sequential modeling of multi- behavior data, many relying on transformer-based architectures with polynomial time complexity. While effective, these approaches often incur high computational costs, limiting their applicability in large-scale industrial systems with long user sequences. To address this challenge, we propose the Transition-Aware Graph Attention Network (TGA), a linear-complexity approach for modeling multi-behavior transitions. Unlike traditional trans- formers that treat all behavior pairs equally, TGA constructs a structured sparse graph by identifying informative transitions from three perspectives: (a) item-level transitions, (b) category-level transitions, and (c) neighbor-level transitions. Built upon the structured graph, TGA employs a transition-aware graph Attention mechanism that jointly models user-item interactions and behav- ior transition types, enabling more accurate capture of sequential patterns while maintaining computational efficiency. Experiments show that TGA outperforms all state-of-the-art models while sig- nificantly reducing computational cost. Notably, TGA has been deployed in a large-scale industrial production environment, where it leads to impressive improvements in key business metrics.
- Abstract(参考訳): eコマースプラットフォーム上でのユーザインタラクションは本質的に多様であり、クリック、好意、カートの追加、購入などの振る舞いを含む。
これらの振る舞い間の遷移は、ユーザとイテムの相互作用に関する貴重な洞察を与え、進化する好みを未解決にするための重要なシグナルとして役立ちます。
その結果、ユーザの意図をよりよく捉えるために、マルチビヘイビアデータを活用することへの関心が高まっている。
近年、多行動データの逐次モデリングを研究しており、その多くは多項式時間複雑性を持つトランスフォーマーベースのアーキテクチャに依存している。
有効性はあるものの、これらのアプローチはしばしば高い計算コストを発生させ、長いユーザシーケンスを持つ大規模産業システムに適用性を制限する。
この課題に対処するために,マルチビヘイビア遷移をモデル化するための線形複雑性アプローチであるTransition-Aware Graph Attention Network (TGA)を提案する。
すべての行動対を等しく扱う従来のトランス前者とは異なり、TGAは3つの視点から情報遷移を特定することによって、構造化されたスパースグラフを構築する。
a)アイテムレベルの遷移
(b)カテゴリーレベルの遷移、及び
(c)隣人レベルの遷移。
構造化グラフ上に構築されたTGAは、ユーザ-イテムインタラクションとbehav-iorトランジションタイプを共同でモデル化し、計算効率を維持しながらシーケンシャルパターンのより正確なキャプチャを可能にする、トランジッション対応グラフアテンション機構を採用している。
実験の結果、TGAは全ての最先端モデルより優れており、計算コストを大幅に削減していることがわかった。
特に、TGAは大規模産業生産環境にデプロイされ、主要なビジネスメトリクスが大幅に改善されました。
関連論文リスト
- Global-Lens Transformers: Adaptive Token Mixing for Dynamic Link Prediction [9.234363752442915]
動的グラフのための新しいアテンションフリートランスフォーマースタイルフレームワークであるGLFormerを提案する。
広く使用されている6つの動的グラフベンチマークの実験では、GLFormerがSOTAのパフォーマンスを達成した。
論文 参考訳(メタデータ) (2025-11-16T04:05:56Z) - Collaborative Multi-Agent Reinforcement Learning for Automated Feature Transformation with Graph-Driven Path Optimization [17.588657338437812]
グラフ駆動経路最適化により特徴工学を自動化する多エージェント強化学習フレームワークであるTCTOを提案する。
フレームワークの中核的なイノベーションは、ノードとしての特徴をモデル化し、エッジとして変換する、進化する相互作用グラフにある。
包括的実験とケーススタディを行い、さまざまなデータセットで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-04-24T08:16:13Z) - A Transfer Framework for Enhancing Temporal Graph Learning in Data-Scarce Settings [30.97142882931946]
エンティティ間の動的相互作用は、ソーシャルプラットフォーム、金融システム、ヘルスケア、電子商取引のようなドメインで一般的である。
TGNNはそのような予測タスクに対して強力な結果を得ているが、通常、現実世界のシナリオで制限される広範なトレーニングデータを必要とする。
本稿では,ノード表現を関連する特徴から2部符号化機構によって切り離す新しい転送手法を提案する。
論文 参考訳(メタデータ) (2025-03-02T11:10:29Z) - SGFormer: Single-Layer Graph Transformers with Approximation-Free Linear Complexity [74.51827323742506]
グラフ上でのトランスフォーマーにおける多層アテンションの導入の必要性を評価する。
本研究では,一層伝播を一層伝播に還元できることを示す。
これは、グラフ上で強力で効率的なトランスフォーマーを構築するための新しい技術パスを示唆している。
論文 参考訳(メタデータ) (2024-09-13T17:37:34Z) - S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - Graph Decision Transformer [83.76329715043205]
グラフ決定変換器(GDT)は、新しいオフライン強化学習手法である。
GDTは入力シーケンスを因果グラフにモデル化し、基本的な異なる概念間の潜在的な依存関係をキャプチャする。
実験の結果,GDT は画像ベース Atari と OpenAI の Gym 上で,最先端のオフライン RL 手法の性能と一致しているか,上回っていることがわかった。
論文 参考訳(メタデータ) (2023-03-07T09:10:34Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Multi-Behavior Hypergraph-Enhanced Transformer for Sequential
Recommendation [33.97708796846252]
短期および長期のクロスタイプの振る舞い依存を捉えるために,新しいMBHT(Multi-Behavior Hypergraph-enhanced Transformer framework)を導入する。
具体的には、多スケールトランスフォーマーは、細粒度および粗粒度から振舞い対応のシーケンシャルパターンを共同符号化するために、低ランクの自己アテンションを備える。
論文 参考訳(メタデータ) (2022-07-12T15:07:21Z) - Multi-Behavior Sequential Recommendation with Temporal Graph Transformer [66.10169268762014]
マルチビヘイビア・インタラクティブなパターンを意識した動的ユーザ・イテム関係学習に取り組む。
本稿では,動的短期および長期のユーザ・イテム対話パターンを共同でキャプチャする,TGT(Temporal Graph Transformer)レコメンデーションフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-06T15:42:54Z) - Knowledge-Enhanced Hierarchical Graph Transformer Network for
Multi-Behavior Recommendation [56.12499090935242]
本研究では,ユーザとレコメンデータシステムにおける項目間の多種類の対話パターンを探索する知識強化階層型グラフトランスフォーマネットワーク(KHGT)を提案する。
KHGTはグラフ構造化ニューラルネットワーク上に構築され、タイプ固有の振る舞い特性をキャプチャする。
KHGTは、様々な評価設定において、最先端のレコメンデーション手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-10-08T09:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。