論文の概要: Query-Mixed Interest Extraction and Heterogeneous Interaction: A Scalable CTR Model for Industrial Recommender Systems
- arxiv url: http://arxiv.org/abs/2602.09387v1
- Date: Tue, 10 Feb 2026 03:56:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.363528
- Title: Query-Mixed Interest Extraction and Heterogeneous Interaction: A Scalable CTR Model for Industrial Recommender Systems
- Title(参考訳): 問合せ型興味抽出と異種相互作用:産業用レコメンダシステムのためのスケーラブルCTRモデル
- Authors: Fangye Wang, Guowei Yang, Xiaojiang Zhou, Song Yang, Pengjie Wang,
- Abstract要約: HeMixは適応シーケンストークン化と異種相互作用構造を統合するスケーラブルなランキングモデルである。
我々は、コンテキスト認識とコンテキスト非依存のユーザ関心を共同でモデル化するQuery-Mixed Interest extractモジュールを導入する。
産業規模のデータセットの実験では、HeMixは効果的にスケールし、一貫して強いベースラインを上回っている。
- 参考スコア(独自算出の注目度): 6.312847671238921
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning effective feature interactions is central to modern recommender systems, yet remains challenging in industrial settings due to sparse multi-field inputs and ultra-long user behavior sequences. While recent scaling efforts have improved model capacity, they often fail to construct both context-aware and context-independent user intent from the long-term and real-time behavior sequence. Meanwhile, recent work also suffers from inefficient and homogeneous interaction mechanisms, leading to suboptimal prediction performance. To address these limitations, we propose HeMix, a scalable ranking model that unifies adaptive sequence tokenization and heterogeneous interaction structure. Specifically, HeMix introduces a Query-Mixed Interest Extraction module that jointly models context-aware and context-independent user interests via dynamic and fixed queries over global and real-time behavior sequences. For interaction, we replace self-attention with the HeteroMixer block, enabling efficient, multi-granularity cross-feature interactions that adopt the multi-head token fusion, heterogeneous interaction and group-aligned reconstruction pipelines. HeMix demonstrates favorable scaling behavior, driven by the HeteroMixer block, where increasing model scale via parameter expansion leads to steady improvements in recommendation accuracy. Experiments on industrial-scale datasets show that HeMix scales effectively and consistently outperforms strong baselines. Most importantly, HeMix has been deployed on the AMAP platform, delivering significant online gains: +0.61% GMV, +2.32% PV_CTR, and +0.81% UV_CVR.
- Abstract(参考訳): 効果的な機能相互作用の学習は、現代のレコメンデータシステムの中心であるが、マルチフィールド入力や超長期のユーザ行動シーケンスが不足しているため、産業環境では依然として困難である。
最近のスケーリングの取り組みはモデルのキャパシティを改善しているが、長期とリアルタイムの動作シーケンスからコンテキスト認識とコンテキスト非依存の両方のユーザインテントを構築するのに失敗することが多い。
一方、最近の研究は非効率で均質な相互作用機構に悩まされており、最適以下の予測性能をもたらす。
これらの制約に対処するため、適応シーケンストークン化と異種相互作用構造を統一するスケーラブルなランキングモデルHeMixを提案する。
具体的には、HeMixはQuery-Mixed Interest extractモジュールを導入し、グローバルおよびリアルタイムの動作シーケンスに対する動的および固定的なクエリを通じてコンテキスト認識とコンテキスト非依存のユーザ関心を共同でモデル化する。
インタラクションのために、HeteroMixerブロックに自己アテンションを置き換え、マルチヘッドトークン融合、ヘテロジニアス相互作用、グループ整列再構築パイプラインを採用する、効率的で多粒性なクロスフィーチャーインタラクションを実現する。
HeMixはHeteroMixerブロックによって駆動される好ましいスケーリング動作を示し、パラメータ拡張によるモデルスケールの増加は、推奨精度を着実に改善する。
産業規模のデータセットの実験では、HeMixは効果的にスケールし、一貫して強いベースラインを上回っている。
最も重要な点として、HeMixはAMAPプラットフォームにデプロイされ、+0.61% GMV、+2.32% PV_CTR、+0.81% UV_CVRといった大きなオンラインゲインを提供している。
関連論文リスト
- HyFormer: Revisiting the Roles of Sequence Modeling and Feature Interaction in CTR Prediction [8.97787361529607]
本稿では,HyFormerについて述べる。HyFormerは1つのバックボーンに長周期モデリングと特徴相互作用を密に統合するハイブリッドトランスフォーマーアーキテクチャである。
数十億の産業データセットに関する実験は、HyFormerが強いLONGERとRanMixerのベースラインを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2026-01-19T02:55:05Z) - Diffusion Forcing for Multi-Agent Interaction Sequence Modeling [52.769202433667125]
MAGNetはマルチエージェントモーション生成のための統合された自己回帰拡散フレームワークである。
フレキシブルな条件付けとサンプリングを通じて、幅広いインタラクションタスクをサポートする。
緊密に同期された活動と、ゆるやかに構造化された社会的相互作用の両方をキャプチャする。
論文 参考訳(メタデータ) (2025-12-19T18:59:02Z) - FAIM: Frequency-Aware Interactive Mamba for Time Series Classification [87.84511960413715]
時系列分類(TSC)は、環境モニタリング、診断、姿勢認識など、多くの実世界の応用において重要である。
本稿では,周波数対応対話型マンバモデルであるFAIMを提案する。
FAIMは既存の最先端(SOTA)手法を一貫して上回り、精度と効率のトレードオフが優れていることを示す。
論文 参考訳(メタデータ) (2025-11-26T08:36:33Z) - Advanced Hybrid Transformer LSTM Technique with Attention and TS Mixer for Drilling Rate of Penetration Prediction [0.9282594860064428]
本研究では,浸透率予測のための新しいディープラーニング型LSTM-Trans-Mixer-Attフレームワークを提案する。
提案するフレームワークは、シーケンシャルメモリ、静的特徴相互作用、グローバルコンテキスト学習、動的特徴重み付けを組み合わせたものである。
実世界の掘削データセットに対する実験的検証は優れた性能を示し、Rsquareは0.9991、MAPEは1.447%である。
論文 参考訳(メタデータ) (2025-08-07T09:45:56Z) - An Efficient and Mixed Heterogeneous Model for Image Restoration [71.85124734060665]
現在の主流のアプローチは、CNN、Transformers、Mambasの3つのアーキテクチャパラダイムに基づいている。
混合構造融合に基づく効率的で汎用的なIRモデルであるRestorMixerを提案する。
論文 参考訳(メタデータ) (2025-04-15T08:19:12Z) - FuXi-$α$: Scaling Recommendation Model with Feature Interaction Enhanced Transformer [81.12174905444229]
近年の進歩は、大規模レコメンデーションモデルに逐次レコメンデーションモデルを拡張することが効果的な戦略であることを示している。
これらの問題に対処するために、FuXi-$alpha$と呼ばれる新しいモデルを提案する。
我々のモデルは既存のモデルよりも優れており、モデルのサイズが大きくなるにつれてその性能は継続的に向上する。
論文 参考訳(メタデータ) (2025-02-05T09:46:54Z) - MixRec: Heterogeneous Graph Collaborative Filtering [21.96510707666373]
そこで本稿では,MixRecを用いたグラフ協調フィルタリングモデルを提案する。
本モデルでは,意図的不整合とマルチビヘイビア・モデリングを取り入れてこれを実現している。
また、自己教師付きデータ拡張の利点を適応的に探求する、新しいコントラスト学習パラダイムを導入する。
論文 参考訳(メタデータ) (2024-12-18T13:12:36Z) - SIGMA: Selective Gated Mamba for Sequential Recommendation [56.85338055215429]
最近の進歩であるMambaは、時系列予測において例外的なパフォーマンスを示した。
SIGMA(Selective Gated Mamba)と呼ばれる,シークエンシャルレコメンデーションのための新しいフレームワークを紹介する。
以上の結果から,SIGMAは5つの実世界のデータセットにおいて,現在のモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-08-21T09:12:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。