論文の概要: Large Foundation Model for Ads Recommendation
- arxiv url: http://arxiv.org/abs/2508.14948v1
- Date: Wed, 20 Aug 2025 10:18:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.040125
- Title: Large Foundation Model for Ads Recommendation
- Title(参考訳): 広告推薦のための大規模基盤モデル
- Authors: Shangyu Zhang, Shijie Quan, Zhongren Wang, Junwei Pan, Tianqu Zhuang, Bo Fu, Yilong Sun, Jieying Lin, Jushuo Chen, Xiaotian Li, Zhixiang Feng, Xian Hu, Huiting Deng, Hua Lu, Jinpeng Wang, Boqi Dai, Xiaoyu Chen, Bin Hu, Lili Huang, Yanwen Wu, Yeshou Cai, Qi Zhou, Huang Tang, Chunfeng Yang, Chengguo Yin, Tingyu Jiang, Lifeng Wang, Shudong Huang, Dapeng Liu, Lei Xiao, Haijie Gu, Shu-Tao Xia, Jie Jiang,
- Abstract要約: 広告レコメンデーションのための全表現多言語移動フレームワーク LFM4Ads を提案する。
LFM4AdsはTencentの産業規模の広告プラットフォームで成功している。
- 参考スコア(独自算出の注目度): 50.71446552453167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online advertising relies on accurate recommendation models, with recent advances using pre-trained large-scale foundation models (LFMs) to capture users' general interests across multiple scenarios and tasks. However, existing methods have critical limitations: they extract and transfer only user representations (URs), ignoring valuable item representations (IRs) and user-item cross representations (CRs); and they simply use a UR as a feature in downstream applications, which fails to bridge upstream-downstream gaps and overlooks more transfer granularities. In this paper, we propose LFM4Ads, an All-Representation Multi-Granularity transfer framework for ads recommendation. It first comprehensively transfers URs, IRs, and CRs, i.e., all available representations in the pre-trained foundation model. To effectively utilize the CRs, it identifies the optimal extraction layer and aggregates them into transferable coarse-grained forms. Furthermore, we enhance the transferability via multi-granularity mechanisms: non-linear adapters for feature-level transfer, an Isomorphic Interaction Module for module-level transfer, and Standalone Retrieval for model-level transfer. LFM4Ads has been successfully deployed in Tencent's industrial-scale advertising platform, processing tens of billions of daily samples while maintaining terabyte-scale model parameters with billions of sparse embedding keys across approximately two thousand features. Since its production deployment in Q4 2024, LFM4Ads has achieved 10+ successful production launches across various advertising scenarios, including primary ones like Weixin Moments and Channels. These launches achieve an overall GMV lift of 2.45% across the entire platform, translating to estimated annual revenue increases in the hundreds of millions of dollars.
- Abstract(参考訳): オンライン広告は正確なレコメンデーションモデルに依存しており、複数のシナリオやタスクにわたるユーザの一般的な関心を捉えるために、事前訓練された大規模ファンデーションモデル(LFM)を使用している。
しかし、既存のメソッドは、ユーザ表現(UR)のみを抽出し、転送し、価値あるアイテム表現(IR)とユーザイテムのクロス表現(CR)を無視し、単にURを下流アプリケーションの機能として使用し、上流と下流のギャップを埋めることに失敗し、転送の粒度をより見落としている。
本稿では,広告レコメンデーションのための全表現多言語移動フレームワーク LFM4Ads を提案する。
まず、UR、IR、CRを包括的に転送する。
CRを効果的に利用するために、最適な抽出層を特定し、それらを伝達可能な粗粒状に集約する。
さらに,機能レベル転送のための非線形アダプタ,モジュールレベルの転送のためのアイソモーフィック相互作用モジュール,モデルレベルの転送のためのスタンドアロン検索などにより,多粒性機構による転送可能性の向上を図る。
LFM4AdsはTencentの産業規模の広告プラットフォームで成功し、テラバイト規模のモデルパラメータを維持しながら、数千の機能をまたいだ数十億の疎結合キーを処理している。
2024年の第4四半期から、LFM4AdsはWeixin MomentsやChannelsなど、さまざまな広告シナリオで10以上の製品ローンチを達成した。
これらのローンチによって、プラットフォーム全体での総 GMV の上昇率は2.45% に達し、年間売上が数十億ドルと見積もられている。
関連論文リスト
- Generative Large-Scale Pre-trained Models for Automated Ad Bidding Optimization [5.460538555236247]
GRAD(Generative Reward-driven Ad-bidding with Mixture-of-Experts)を提案する。
GRADはプラットフォーム収益を大幅に向上させ、現代の広告主の進化的かつ多様な要求に対処する上での有効性を強調した。
論文 参考訳(メタデータ) (2025-08-04T02:46:18Z) - MMAT-1M: A Large Reasoning Dataset for Multimodal Agent Tuning [4.963955559863751]
MMAT-1Mは、CoT、リフレクション、動的ツールの使用をサポートするために設計された最初の100万規模のマルチモーダルエージェントチューニングデータセットである。
我々のデータセットは、新しい4段階のデータエンジンによって構築されます。
MMAT-1M上でのオープンソースのマルチモーダルモデルを微調整することにより,大幅な性能向上を観測する。
論文 参考訳(メタデータ) (2025-07-29T15:39:14Z) - MTGR: Industrial-Scale Generative Recommendation Framework in Meituan [28.92150571719811]
この問題に対処するためにMTGR(Meituan Generative Recommendation)を提案する。
MTGRはユーザレベルの圧縮によってトレーニングと推論の高速化を実現し、効率的なスケーリングを実現する。
この突破口は世界最大のフードデリバリープラットフォームであるMeituanに配備された。
論文 参考訳(メタデータ) (2025-05-24T11:47:28Z) - Learning Item Representations Directly from Multimodal Features for Effective Recommendation [51.49251689107541]
マルチモーダルレコメンデータシステムは、主にベイズパーソナライズされたランク付け(BPR)最適化を利用してアイテム表現を学習する。
本稿では,マルチモーダルな特徴からアイテム表現を直接学習し,推薦性能を向上する新しいモデル(LIRDRec)を提案する。
論文 参考訳(メタデータ) (2025-05-08T05:42:22Z) - Mini-InternVL: A Flexible-Transfer Pocket Multimodal Model with 5% Parameters and 90% Performance [78.48606021719206]
Mini-InternVL は 1B から 4B までのパラメータを持つ一連の MLLM であり、パラメータの 5% しか持たない性能の90% を達成している。
我々は,ダウンストリームタスクにおける特化モデルの転送と性能向上を可能にする,Mini-InternVLの統一適応フレームワークを開発した。
論文 参考訳(メタデータ) (2024-10-21T17:58:20Z) - Product1M: Towards Weakly Supervised Instance-Level Product Retrieval
via Cross-modal Pretraining [108.86502855439774]
弱教師付きマルチモーダル・インスタンスレベルの製品検索を目的とした,より現実的な設定について検討する。
実世界のインスタンスレベルの検索において,最も大規模なマルチモーダル化粧品データセットであるProduct1Mをコントリビュートする。
ケースレベルの予測検索(CAPTURE)のためのクロスモーダル・コントラサシブ・プロダクト・トランスフォーマーという新しいモデルを提案する。
論文 参考訳(メタデータ) (2021-07-30T12:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。