論文の概要: HHFT: Hierarchical Heterogeneous Feature Transformer for Recommendation Systems
- arxiv url: http://arxiv.org/abs/2511.20235v1
- Date: Tue, 25 Nov 2025 12:07:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.443673
- Title: HHFT: Hierarchical Heterogeneous Feature Transformer for Recommendation Systems
- Title(参考訳): HHFT:推薦システムのための階層的不均一特徴変換器
- Authors: Liren Yu, Wenming Zhang, Silu Zhou, Zhixuan Zhang, Dan Ou,
- Abstract要約: HHFTは、産業用CTR予測用に設計されたトランスフォーマーベースのアーキテクチャである。
トランスフォーマーはDNNベースラインを著しく上回り、CTR AUCは+0.4%向上した。
私たちは、このモデルをTaobaoのプロダクションプラットフォームにデプロイし、主要なビジネス指標の大幅な上昇を観察しました。
- 参考スコア(独自算出の注目度): 9.219747266807682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose HHFT (Hierarchical Heterogeneous Feature Transformer), a Transformer-based architecture tailored for industrial CTR prediction. HHFT addresses the limitations of DNN through three key designs: (1) Semantic Feature Partitioning: Grouping heterogeneous features (e.g. user profile, item information, behaviour sequennce) into semantically coherent blocks to preserve domain-specific information; (2) Heterogeneous Transformer Encoder: Adopting block-specific QKV projections and FFNs to avoid semantic confusion between distinct feature types; (3) Hiformer Layer: Capturing high-order interactions across features. Our findings reveal that Transformers significantly outperform DNN baselines, achieving a +0.4% improvement in CTR AUC at scale. We have successfully deployed the model on Taobao's production platform, observing a significant uplift in key business metrics, including a +0.6% increase in Gross Merchandise Value (GMV).
- Abstract(参考訳): 本稿では,産業用CTR予測に適したトランスフォーマーベースのアーキテクチャであるHHFTを提案する。
HHFTは、DNNの3つの主要な設計を通して、DNNの限界に対処している。(1) 意味的特徴分割: ドメイン固有の情報を保持するために、不均一な特徴(例えば、ユーザプロファイル、アイテム情報、行動シークエンス)をセマンティックに一貫性のあるブロックにグループ化する; (2) 異種トランスフォーマーエンコーダ: ブロック固有のQKVプロジェクションとFFNを採用して、異なる特徴タイプ間のセマンティックな混乱を避ける; (3) ハイフォーマー層: 特徴間の高次相互作用をキャプチャする。
以上の結果から,トランスフォーマーはDNNベースラインを著しく上回り,CTR AUCを0.4%向上させた。
我々は、このモデルをTaobaoの生産プラットフォームにデプロイし、Gross Merchandise Value(GMV)の+0.6%の増加を含む主要なビジネス指標の大幅な上昇を観察しました。
関連論文リスト
- HoMer: Addressing Heterogeneities by Modeling Sequential and Set-wise Contexts for CTR Prediction [10.779868699316829]
逐次的および集合的コンテキストをモデル化するためのホモジニアス指向トランスフォーマーであるHoMerを提案する。
HoMerは、AUCメトリックで工業ベースラインを0.0099向上させ、CTR/RPMのようなオンラインビジネスメトリクスを1.99%/2.46%向上させています。
論文 参考訳(メタデータ) (2025-10-13T07:47:03Z) - GITO: Graph-Informed Transformer Operator for Learning Complex Partial Differential Equations [0.0]
複素偏微分方程式系を学習するための新しいグラフインフォームド・トランスフォーマ演算子(GITO)アーキテクチャを提案する。
GITOは、HGT(Hybrid graph transformer)とTNO(Transformer Neural operator)の2つの主要モジュールから構成される。
ベンチマークPDEタスクの実験的結果は、GITOが既存のトランスフォーマーベースのニューラル演算子より優れていることを示している。
論文 参考訳(メタデータ) (2025-06-16T18:35:45Z) - HeterRec: Heterogeneous Information Transformer for Scalable Sequential Recommendation [21.435064492654494]
HeterRecは、アイテム側の異種機能を統合するシーケンシャルレコメンデーションモデルである。
HeterRecはHTFLと階層型因果変圧器層(HCT)を組み込んでいる
オフラインとオンライン両方のデータセットに対する大規模な実験は、HeterRecモデルが優れたパフォーマンスを実現していることを示している。
論文 参考訳(メタデータ) (2025-03-03T12:23:54Z) - Tensor Product Attention Is All You Need [61.3442269053374]
プロダクトアテンション(TPA)は、テンソル分解を使用してクエリ、キー、値をコンパクトに表現する新しいアテンションメカニズムである。
TPAは、メモリ効率とともに改善されたモデル品質を実現する。
TPAに基づいて,シーケンスモデリングのための新しいモデルアーキテクチャであるProducT ATTion Transformer (T6)を紹介する。
論文 参考訳(メタデータ) (2025-01-11T03:37:10Z) - CFPFormer: Feature-pyramid like Transformer Decoder for Segmentation and Detection [1.837431956557716]
本稿では,Cross Feature Pyramid Transformer Decoder (CFPFormer)を提案する。
私たちの仕事は、長距離の依存関係をキャプチャし、効果的にアップサンプルのフィーチャーマップを作成できます。
ResNet50のバックボーンにより,92.02%のDice Scoreを実現し,本手法の有効性を強調した。
論文 参考訳(メタデータ) (2024-04-23T18:46:07Z) - Isomer: Isomerous Transformer for Zero-shot Video Object Segmentation [59.91357714415056]
コンテクスト共有変換器(CST)とセマンティックガザリング散乱変換器(SGST)の2つの変種を提案する。
CSTは、軽量な計算により、画像フレーム内のグローバル共有コンテキスト情報を学習し、SGSTは、前景と背景のセマンティック相関を別々にモデル化する。
多段核融合にバニラ変換器を使用するベースラインと比較して,我々は13倍の速度向上を実現し,新しい最先端ZVOS性能を実現する。
論文 参考訳(メタデータ) (2023-08-13T06:12:00Z) - DeGMix: Efficient Multi-Task Dense Prediction with Deformable and Gating Mixer [129.61363098633782]
変形およびゲーティングミキサー(DeGMix)を用いた効率的なマルチタスク密度予測法を提案する。
提案したDeGMixはGFLOPを少なくし、現在のTransformerベースの競合モデルとCNNベースの競合モデルを大幅に上回っている。
論文 参考訳(メタデータ) (2023-08-10T17:37:49Z) - Transformer Scale Gate for Semantic Segmentation [53.27673119360868]
Transformer Scale Gate (TSG) は、視覚変換器の自己および横断的な注意をスケール選択に活用する。
Pascal ContextとADE20Kデータセットに関する我々の実験は、我々の特徴選択戦略が一貫した利益を達成することを示す。
論文 参考訳(メタデータ) (2022-05-14T13:11:39Z) - FAMLP: A Frequency-Aware MLP-Like Architecture For Domain Generalization [73.41395947275473]
本稿では、変換周波数領域において、ドメイン固有の特徴をフィルタリングする新しい周波数認識アーキテクチャを提案する。
3つのベンチマークの実験では、最先端の手法をそれぞれ3%、4%、9%のマージンで上回った。
論文 参考訳(メタデータ) (2022-03-24T07:26:29Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。