論文の概要: Zenith: Scaling up Ranking Models for Billion-scale Livestreaming Recommendation
- arxiv url: http://arxiv.org/abs/2601.21285v3
- Date: Thu, 05 Feb 2026 03:44:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 14:11:23.798304
- Title: Zenith: Scaling up Ranking Models for Billion-scale Livestreaming Recommendation
- Title(参考訳): Zenith: 数十億ドル規模のライブストリーミングレコメンデーションのためのランキングモデルのスケールアップ
- Authors: Ruifeng Zhang, Zexi Huang, Zikai Wang, Ke Sun, Bohang Zheng, Yuchen Jiang, Zhe Chen, Zhen Ouyang, Huimin Xie, Phil Shen, Junlin Zhang, Yuchao Zheng, Wentao Guo, Qinglei Wang,
- Abstract要約: 我々は、最小限のオーバーヘッドランタイムで複雑な機能インタラクションを学習するスケーラブルで効率的なランキングアーキテクチャであるZenithを紹介します。
我々のA/Bテストは、ZenithがオンラインCTR AUCとLoglossで+1.05%/-1.10%を獲得し、Quality Watch Session/Userで+9.93%のアップを実現していることを示している。
- 参考スコア(独自算出の注目度): 17.495572310127635
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurately capturing feature interactions is essential in recommender systems, and recent trends show that scaling up model capacity could be a key driver for next-level predictive performance. While prior work has explored various model architectures to capture multi-granularity feature interactions, relatively little attention has been paid to efficient feature handling and scaling model capacity without incurring excessive inference latency. In this paper, we address this by presenting Zenith, a scalable and efficient ranking architecture that learns complex feature interactions with minimal runtime overhead. Zenith is designed to handle a few high-dimensional Prime Tokens with Token Fusion and Token Boost modules, which exhibits superior scaling laws compared to other state-of-the-art ranking methods, thanks to its improved token heterogeneity. Its real-world effectiveness is demonstrated by deploying the architecture to TikTok Live, a leading online livestreaming platform that attracts billions of users globally. Our A/B test shows that Zenith achieves +1.05%/-1.10% in online CTR AUC and Logloss, and realizes +9.93% gains in Quality Watch Session / User and +8.11% in Quality Watch Duration / User.
- Abstract(参考訳): 最近のトレンドは、モデルのキャパシティのスケールアップが、次のレベルの予測パフォーマンスにとって重要な要因であることを示している。
これまでの作業では,複数粒度の特徴的相互作用を捉えるために,さまざまなモデルアーキテクチャが検討されてきたが,過度な推論遅延を発生させることなく,効率的な機能ハンドリングとモデルキャパシティのスケーリングにはあまり注意が払われていない。
本稿では、最小限のランタイムオーバーヘッドで複雑な機能相互作用を学習するスケーラブルで効率的なランキングアーキテクチャであるZenithを提示することにより、この問題に対処する。
ZenithはToken FusionとToken Boostモジュールを使って、いくつかの高次元プライムトークンを扱うように設計されている。
実際の効果は、このアーキテクチャをTikTok Liveにデプロイすることで実証されている。
我々のA/Bテストによると、ZenithはオンラインCTR AUCとLoglossで+1.05%/-1.10%、Quality Watch Session / Userで+9.93%、Quality Watch Duration / Userで+8.11%を達成している。
関連論文リスト
- FASTer: Toward Efficient Autoregressive Vision Language Action Modeling via Neural Action Tokenization [61.10456021136654]
本稿では,効率的で汎用的なロボット学習のための統合フレームワークであるFASTerを紹介する。
FASTerVQは、アクションチャンクをシングルチャネルイメージとしてエンコードし、高い圧縮比を維持しながら、グローバルな時間的依存関係をキャプチャする。
FASTerVLAはブロックワイドの自動回帰デコーディングと軽量アクションエキスパートを備えたトークンライザ上に構築されており、推論の高速化とタスクパフォーマンスの向上を実現している。
論文 参考訳(メタデータ) (2025-12-04T16:21:38Z) - Xihe: Scalable Zero-Shot Time Series Learner Via Hierarchical Interleaved Block Attention [35.34276815693167]
階層型インターリーブドブロック注意(HIBA)を提案する。
超効率な9.5Mパラメータ構成から高容量1.5Bまで、スケーラブルなTSFMファミリーであるXiheを紹介する。
Xihe-maxは、最先端のゼロショットのパフォーマンスを新たに確立し、以前の最高の結果を実質的なマージンで上回っている。
論文 参考訳(メタデータ) (2025-10-20T11:10:11Z) - Agentic Jigsaw Interaction Learning for Enhancing Visual Perception and Reasoning in Vision-Language Models [63.69856480318313]
AGILEは、対話的なプロセスとしてジグソー解決を定式化し、モデルが環境に徐々に関与できるようにする。
我々は AGILE がジグソータスクの性能を大幅に向上させることを示す。
また、9つの一般的な視覚タスクに対して強力な一般化を示し、平均3.1%の改善を実現した。
論文 参考訳(メタデータ) (2025-10-01T17:58:05Z) - Stack Transformer Based Spatial-Temporal Attention Model for Dynamic Sign Language and Fingerspelling Recognition [1.949837893170278]
手話に基づく手話認識は、聴覚障害者と非聴覚障害者の間に重要な橋渡しとなる。
本稿では,新しいトランスフォーマーアーキテクチャであるSSTAN(Sequential Spatio-Temporal Attention Network)を提案する。
多様な大規模データセットに関する広範な実験を通じて、我々のモデルを検証した。
論文 参考訳(メタデータ) (2025-03-21T04:57:18Z) - Climber: Toward Efficient Scaling Laws for Large Recommendation Models [8.970144942471425]
Climberは2つの相乗的コンポーネントからなる効率的なレコメンデーションフレームワークである。
提案モデルでは,(1)一定因子による時間的複雑性の低減を実現し,シーケンス長によるより効率的なスケーリングを実現するマルチスケールシーケンス抽出,(2)マルチシナリオパターンとマルチビヘイビアパターンに注意分布を適応させる動的温度変調,の2つのコアイノベーションを採用している。
Climberは、中国最大の音楽ストリーミングプラットフォームであるNetease Cloud Musicに、毎日数千万人のユーザーにサービスを提供している。
論文 参考訳(メタデータ) (2025-02-14T03:25:09Z) - FuXi-$α$: Scaling Recommendation Model with Feature Interaction Enhanced Transformer [81.12174905444229]
近年の進歩は、大規模レコメンデーションモデルに逐次レコメンデーションモデルを拡張することが効果的な戦略であることを示している。
これらの問題に対処するために、FuXi-$alpha$と呼ばれる新しいモデルを提案する。
我々のモデルは既存のモデルよりも優れており、モデルのサイズが大きくなるにつれてその性能は継続的に向上する。
論文 参考訳(メタデータ) (2025-02-05T09:46:54Z) - Implicit Temporal Modeling with Learnable Alignment for Video
Recognition [95.82093301212964]
本稿では,極めて高い性能を達成しつつ,時間的モデリングの労力を最小限に抑える新しいImplicit Learnable Alignment(ILA)法を提案する。
ILAはKineetics-400の88.7%で、Swin-LやViViT-Hに比べてFLOPははるかに少ない。
論文 参考訳(メタデータ) (2023-04-20T17:11:01Z) - Learning Rich Nearest Neighbor Representations from Self-supervised
Ensembles [60.97922557957857]
推論時間における勾配降下から直接表現を学習する新しい手法により、自己教師付きモデルアンサンブルを行うためのフレームワークを提供する。
この技術は、ドメイン内のデータセットと転送設定の両方において、k-nearestの隣人によって測定されるように、表現品質を改善する。
論文 参考訳(メタデータ) (2021-10-19T22:24:57Z) - Scaling Local Self-Attention For Parameter Efficient Visual Backbones [29.396052798583234]
自己注意は、パラメータ非依存のスケールとコンテンツ依存の相互作用により、コンピュータビジョンシステムを改善するという約束がある。
私たちは、ImageNet分類ベンチマークのパラメータ制限設定で最新の精度に達する新しいセルフアテンションモデルファミリー、emphHaloNetsを開発しました。
論文 参考訳(メタデータ) (2021-03-23T17:56:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。