論文の概要: An Industrial-Scale Sequential Recommender for LinkedIn Feed Ranking
- arxiv url: http://arxiv.org/abs/2602.12354v1
- Date: Thu, 12 Feb 2026 19:27:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.727299
- Title: An Industrial-Scale Sequential Recommender for LinkedIn Feed Ranking
- Title(参考訳): LinkedIn フィードランク付けのための産業規模シーケンスレコメンダ
- Authors: Lars Hertel, Gaurav Srivastava, Syed Ali Naqvi, Satyam Kumar, Yue Zhang, Borja Ocejo, Benjamin Zelditch, Adrian Englhardt, Hailing Cheng, Andy Hu, Antonio Alonso, Daming Li, Siddharth Dangi, Chen Zhu, Mingzhou Zhou, Wanning Li, Tao Huang, Fedor Borisyuk, Ganesh Parameswaran, Birjodh Singh Tiwana, Sriram Sankar, Qing Lan, Julie Choi, Souvik Ghosh,
- Abstract要約: 本稿では,LinkedIn フィードのシーケンシャルランキングモデルである Feed Sequential Recommender (Feed-SR) を紹介する。
Feed-SRは現在、LinkedInのFeedの主要なメンバーエクスペリエンスである。
これは、既存の生産モデルと比較して、オンラインA/Bテストにおけるメンバーエンゲージメント(+2.10%の時間)が大幅に改善されたことを示している。
- 参考スコア(独自算出の注目度): 13.095204369682184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LinkedIn Feed enables professionals worldwide to discover relevant content, build connections, and share knowledge at scale. We present Feed Sequential Recommender (Feed-SR), a transformer-based sequential ranking model for LinkedIn Feed that replaces a DCNv2-based ranker and meets strict production constraints. We detail the modeling choices, training techniques, and serving optimizations that enable deployment at LinkedIn scale. Feed-SR is currently the primary member experience on LinkedIn's Feed and shows significant improvements in member engagement (+2.10% time spent) in online A/B tests compared to the existing production model. We also describe our deployment experience with alternative sequential and LLM-based ranking architectures and why Feed-SR provided the best combination of online metrics and production efficiency.
- Abstract(参考訳): LinkedIn Feedは、世界中のプロフェッショナルが関連するコンテンツを発見し、コネクションを構築し、大規模に知識を共有することを可能にする。
本稿では,LinkedIn FeedのシーケンシャルランキングモデルであるFeed Sequential Recommender(Feed-SR)について述べる。
モデリングの選択、トレーニングテクニック、LinkedInスケールでのデプロイメントを可能にする最適化の提供について、詳しく説明します。
Feed-SRは現在、LinkedInのFeedの主要なメンバーエクスペリエンスであり、既存のプロダクションモデルと比較して、オンラインA/Bテストにおけるメンバーエンゲージメント(+2.10%の時間)が大幅に改善されている。
また、代替のシーケンシャルおよびLCMベースのランキングアーキテクチャによるデプロイメント経験や、Feed-SRがオンラインメトリクスと生産効率の最高の組み合わせを提供する理由についても説明します。
関連論文リスト
- Rank-GRPO: Training LLM-based Conversational Recommender Systems with Reinforcement Learning [70.6126069527741]
ConvRec-R1は会話レコメンデーションシステムのエンドツーエンドトレーニングのための2段階のフレームワークである。
ステージ1では,Remap-Reflect-Adjustパイプラインを用いた行動閉鎖データセットを構築した。
ステージ2では,グループ相対政策最適化の原則的拡張である Rank-GRPO を提案する。
論文 参考訳(メタデータ) (2025-10-23T02:56:00Z) - Large Scale Retrieval for the LinkedIn Feed using Causal Language Models [4.742257164636025]
本稿では,大規模な因果言語モデルをデュアルエンコーダとして微調整し,ユーザ(メンバー)とコンテンツ(イテム)の両方に高品質な埋め込みを生成する,新たな検索手法を提案する。
組込み生成の即時設計、LinkedInのスケールでの微調整のテクニック、低レイテンシのためのインフラストラクチャ、コスト効率のよいオンラインサービスを含む、エンドツーエンドパイプラインについて説明する。
論文 参考訳(メタデータ) (2025-10-16T02:01:33Z) - OnePiece: Bringing Context Engineering and Reasoning to Industrial Cascade Ranking System [61.12400636463362]
OnePieceは、LLMスタイルのコンテキストエンジニアリングと推論を、検索モデルとランキングモデルの両方にシームレスに統合する統合フレームワークである。
OnePieceは、Shopeeの主要なパーソナライズされた検索シナリオにデプロイされ、さまざまな主要なビジネス指標で一貫したオンラインゲインを実現している。
論文 参考訳(メタデータ) (2025-09-22T17:59:07Z) - LLM2Rec: Large Language Models Are Powerful Embedding Models for Sequential Recommendation [49.78419076215196]
シーケンスレコメンデーションは、類似したユーザやアイテムの履歴行動から協調フィルタリング(CF)信号をモデル化することで、ユーザの将来のインタラクションを予測することを目的としている。
従来のシーケンシャルなレコメンダは、高次の共起パターンを通じてCF信号をキャプチャするIDベースの埋め込みに依存している。
大規模言語モデル(LLM)の最近の進歩は、テキスト記述からアイテム表現を導出するテキストベースのレコメンデーションアプローチを動機付けている。
理想的な埋め込みモデルは、ドメイン内およびドメイン外のレコメンデーションパフォーマンスを改善するために、CF信号とリッチなセマンティック表現をシームレスに統合すべきである、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-16T13:27:06Z) - Efficient and Deployable Knowledge Infusion for Open-World Recommendations via Large Language Models [53.547190001324665]
大規模言語モデル(LLM)からユーザとアイテムに関する2種類の外部知識を取得するためのREKIを提案する。
個別の知識抽出と個別の知識抽出を,異なるシナリオのスケールに合わせて開発し,オフラインのリソース消費を効果的に削減する。
実験によると、REKIは最先端のベースラインより優れており、多くの推奨アルゴリズムやタスクと互換性がある。
論文 参考訳(メタデータ) (2024-08-20T03:45:24Z) - LinkedIn Post Embeddings: Industrial Scale Embedding Generation and Usage across LinkedIn [8.031283297332447]
ポスト埋め込みは、意味を効果的に捉えた埋め込み空間におけるテキストの表現である。
本稿では,事前学習したトランスフォーマーベース大規模言語モデル(LLM)を入力として,微調整を行うLinkedInのポスト埋め込みについて述べる。
我々は、前向きな移行を観察し、独立してトレーニングするのに比べ、すべてのタスクにおけるパフォーマンスの改善につながった。
論文 参考訳(メタデータ) (2024-05-18T17:28:29Z) - Optimizing E-commerce Search: Toward a Generalizable and Rank-Consistent Pre-Ranking Model [13.573766789458118]
大規模なeコマースプラットフォームでは、ダウンストリームランキングモジュールのために、前もって製品の大部分をフィルタリングするために、プレグレードフェーズが不可欠である。
1) 製品がトップk内にあるかどうかを予測する複数のバイナリ分類タスクを導入し、共通のポイントワイドランキングモデルでの学習目標の追加を容易にする。2) 製品埋め込みのサブセットを事前トレーニングすることで、すべての製品に対するコントラスト学習による一般化性。
論文 参考訳(メタデータ) (2024-05-09T07:55:52Z) - LiRank: Industrial Large Scale Ranking Models at LinkedIn [21.24938719541942]
LiRankはLinkedInの大規模ランキングフレームワークである。
我々はResidual DCNを含むいくつかのモデリングの改善を公表した。
本稿では、フィードランキング、求人推薦、広告クリックスルー率(CTR)予測といった大規模ユースケースに対するデプロイメント設定の詳細について述べる。
論文 参考訳(メタデータ) (2024-02-10T01:47:10Z) - A Generative Approach for Production-Aware Industrial Network Traffic
Modeling [70.46446906513677]
ドイツにあるTrumpf工場に配備されたレーザー切断機から発生するネットワークトラフィックデータについて検討した。
我々は、トラフィック統計を分析し、マシンの内部状態間の依存関係をキャプチャし、ネットワークトラフィックを生産状態依存プロセスとしてモデル化する。
可変オートエンコーダ(VAE)、条件付き可変オートエンコーダ(CVAE)、生成逆ネットワーク(GAN)など、様々な生成モデルの性能の比較を行った。
論文 参考訳(メタデータ) (2022-11-11T09:46:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。