論文の概要: KuaiFormer: Transformer-Based Retrieval at Kuaishou
- arxiv url: http://arxiv.org/abs/2411.10057v1
- Date: Fri, 15 Nov 2024 09:20:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 15:39:30.319982
- Title: KuaiFormer: Transformer-Based Retrieval at Kuaishou
- Title(参考訳): KuaiFormer: Kuaishouにおけるトランスフォーマーベースの検索
- Authors: Chi Liu, Jiangxia Cao, Rui Huang, Kai Zheng, Qiang Luo, Kun Gai, Guorui Zhou,
- Abstract要約: 大規模なコンテントレコメンデーションシステムにデプロイされたトランスフォーマーベースの検索フレームワークであるKuaiFormerを紹介する。
KuaiFormerは、従来のスコア推定タスクからトランスフォーマー駆動のNext Action Predictionパラダイムに移行することで、検索プロセスを再定義する。
- 参考スコア(独自算出の注目度): 29.287311234605625
- License:
- Abstract: In large-scale content recommendation systems, retrieval serves as the initial stage in the pipeline, responsible for selecting thousands of candidate items from billions of options to pass on to ranking modules. Traditionally, the dominant retrieval method has been Embedding-Based Retrieval (EBR) using a Deep Neural Network (DNN) dual-tower structure. However, applying transformer in retrieval tasks has been the focus of recent research, though real-world industrial deployment still presents significant challenges. In this paper, we introduce KuaiFormer, a novel transformer-based retrieval framework deployed in a large-scale content recommendation system. KuaiFormer fundamentally redefines the retrieval process by shifting from conventional score estimation tasks (such as click-through rate estimate) to a transformer-driven Next Action Prediction paradigm. This shift enables more effective real-time interest acquisition and multi-interest extraction, significantly enhancing retrieval performance. KuaiFormer has been successfully integrated into Kuaishou App's short-video recommendation system since May 2024, serving over 400 million daily active users and resulting in a marked increase in average daily usage time of Kuaishou users. We provide insights into both the technical and business aspects of deploying transformer in large-scale recommendation systems, addressing practical challenges encountered during industrial implementation. Our findings offer valuable guidance for engineers and researchers aiming to leverage transformer models to optimize large-scale content recommendation systems.
- Abstract(参考訳): 大規模なコンテンツレコメンデーションシステムでは、検索がパイプラインの初期段階として機能し、数十億のオプションから数千の候補アイテムを選択し、ランキングモジュールに渡す。
従来の検索手法は, ディープニューラルネットワーク (DNN) を用いた埋め込み型検索 (EBR) が主流であった。
しかし、検索タスクにトランスフォーマーを適用することが最近の研究の焦点となっているが、現実の産業展開は依然として大きな課題を呈している。
本稿では,大規模コンテンツレコメンデーションシステムに実装された新しいトランスフォーマーベースの検索フレームワークであるKuaiFormerを紹介する。
KuaiFormerは、従来のスコア推定タスク(クリックスルー率推定など)からトランスフォーマー駆動のNext Action Predictionパラダイムに移行することで、検索プロセスを根本的に再定義する。
このシフトにより、より効果的なリアルタイムの利子獲得と多利子抽出が可能となり、検索性能が大幅に向上する。
KuaiFormerは2024年5月以降、Kuaishou Appのショートビデオレコメンデーションシステムに統合され、毎日4億人のアクティブユーザを提供し、Kuaishouユーザの平均日使用時間が著しく増加した。
大規模レコメンデーションシステムにおけるトランスフォーマーの展開における技術的側面とビジネス面の両面での洞察を提供し,産業実装において直面する現実的な課題に対処する。
本研究は,トランスフォーマーモデルを活用した大規模コンテンツレコメンデーションシステムの最適化を目的とした,エンジニアと研究者にとって貴重なガイダンスを提供する。
関連論文リスト
- EASRec: Elastic Architecture Search for Efficient Long-term Sequential
Recommender Systems [82.76483989905961]
現在のSRS(Sequential Recommender Systems)は、計算とリソースの非効率に悩まされている。
我々は、効率的な長期シーケンスレコメンダシステム(EASRec)のための弾性アーキテクチャー探索を開発する。
EASRecは、入力データバッチから履歴情報を活用するデータ認識ゲートを導入し、レコメンデーションネットワークの性能を改善する。
論文 参考訳(メタデータ) (2024-02-01T07:22:52Z) - A Systematic Review for Transformer-based Long-term Series Forecasting [7.414422194379818]
トランスフォーマーアーキテクチャは、意味的相関を抽出する最も成功したソリューションであることが証明されている。
様々なバリエーションにより、トランスフォーマーアーキテクチャは長期的な時系列予測タスクを処理できるようになった。
論文 参考訳(メタデータ) (2023-10-31T06:37:51Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - How Does Generative Retrieval Scale to Millions of Passages? [68.98628807288972]
各種コーパス尺度における生成的検索手法の実証的研究を行った。
我々は8.8Mパスのコーパスで数百万のパスに生成検索をスケールし、モデルサイズを最大11Bパラメータまで評価する。
生成的検索は、小さなコーパス上の最先端のデュアルエンコーダと競合するが、数百万のパスへのスケーリングは依然として重要で未解決の課題である。
論文 参考訳(メタデータ) (2023-05-19T17:33:38Z) - RegFormer: An Efficient Projection-Aware Transformer Network for
Large-Scale Point Cloud Registration [73.69415797389195]
本稿では,大規模クラウドアライメントのためのエンドツーエンドトランス (RegFormer) ネットワークを提案する。
具体的には、プロジェクション対応階層変換器を提案し、長距離依存を捕捉し、外乱をフィルタする。
我々の変圧器は線形複雑であり、大規模シーンでも高い効率が保証される。
論文 参考訳(メタデータ) (2023-03-22T08:47:37Z) - Exploring Transformers for Behavioural Biometrics: A Case Study in Gait
Recognition [0.7874708385247353]
本稿ではトランスフォーマーに基づく新しい歩行生体認証システムについて検討し,提案する。
実験フレームワークでは、最先端アーキテクチャ(Vanilla、Informer、Autoformer、Block-Recurrent Transformer、THAT)が検討されている。
代表的な2つの公開データベースwuGAITとOU-ISIRを用いて実験を行った。
論文 参考訳(メタデータ) (2022-06-03T08:08:40Z) - ProFormer: Learning Data-efficient Representations of Body Movement with
Prototype-based Feature Augmentation and Visual Transformers [31.908276711898548]
身体からのデータ効率の高い認識法は、画像のような配列として構造化された骨格配列をますます活用している。
我々は、このパラダイムをトランスフォーマーネットワークの観点から見て、初めて、骨格運動のデータ効率の高いエンコーダとして視覚トランスフォーマーを探索する。
私たちのパイプラインでは、画像のような表現としてキャストされたボディポーズシーケンスをパッチ埋め込みに変換し、深いメトリック学習に最適化されたビジュアルトランスフォーマーバックボーンに渡します。
論文 参考訳(メタデータ) (2022-02-23T11:11:54Z) - Distilling Transformers for Neural Cross-Domain Search [9.865125804658991]
我々はシーケンス・ツー・シーケンス・モデルが概念的には理想であると主張する。
我々は,データ拡張スキームとして,新しい蒸留目標を導出する。
自然言語ソースコード検索をクロスドメイン検索のケーススタディとして用い,近年の自然言語コード検索ベンチマークであるCodeSearchNetチャレンジの現在のリーダを大きく改善することで,このアイデアの有効性を実証する。
論文 参考訳(メタデータ) (2021-08-06T22:30:19Z) - The Cascade Transformer: an Application for Efficient Answer Sentence
Selection [116.09532365093659]
本稿では,変圧器をベースとしたモデルのカスケード化手法であるカスケード変換器について紹介する。
現状の変圧器モデルと比較すると,提案手法は精度にほとんど影響を与えずに計算量を37%削減する。
論文 参考訳(メタデータ) (2020-05-05T23:32:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。