論文の概要: Scaling Laws for Online Advertisement Retrieval
- arxiv url: http://arxiv.org/abs/2411.13322v1
- Date: Wed, 20 Nov 2024 13:44:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:13:27.701019
- Title: Scaling Laws for Online Advertisement Retrieval
- Title(参考訳): オンライン検索におけるスケーリング法則
- Authors: Yunli Wang, Zixuan Yang, Zhen Zhang, Zhiqiang Wang, Jian Yang, Shiyang Wen, Peng Jiang, Kun Gai,
- Abstract要約: スケーリング法則はニューラルネットワークモデルの顕著な特性であり、大きな言語モデルの開発を著しく推進している。
近年の研究では、スケーリング法則はNLPタスクやトランスフォーマーアーキテクチャに限らず、レコメンデーションなどの領域にも適用されることが示されている。
実験コストの低いオンライン広告検索シナリオにおいて,オンライン収益のスケーリング法則と機械コストを識別するための軽量なパラダイムを提案する。
- 参考スコア(独自算出の注目度): 27.347496563574268
- License:
- Abstract: The scaling law is a notable property of neural network models and has significantly propelled the development of large language models. Scaling laws hold great promise in guiding model design and resource allocation. Recent research increasingly shows that scaling laws are not limited to NLP tasks or Transformer architectures; they also apply to domains such as recommendation. However, there is still a lack of literature on scaling law research in online advertisement retrieval systems. This may be because 1) identifying the scaling law for resource cost and online revenue is often expensive in both time and training resources for large-scale industrial applications, and 2) varying settings for different systems prevent the scaling law from being applied across various scenarios. To address these issues, we propose a lightweight paradigm to identify the scaling law of online revenue and machine cost for a certain online advertisement retrieval scenario with a low experimental cost. Specifically, we focus on a sole factor (FLOPs) and propose an offline metric named R/R* that exhibits a high linear correlation with online revenue for retrieval models. We estimate the machine cost offline via a simulation algorithm. Thus, we can transform most online experiments into low-cost offline experiments. We conduct comprehensive experiments to verify the effectiveness of our proposed metric R/R* and to identify the scaling law in the online advertisement retrieval system of Kuaishou. With the scaling law, we demonstrate practical applications for ROI-constrained model designing and multi-scenario resource allocation in Kuaishou advertising system. To the best of our knowledge, this is the first work to study the scaling laws for online advertisement retrieval of real-world systems, showing great potential for scaling law in advertising system optimization.
- Abstract(参考訳): スケーリング法則はニューラルネットワークモデルの顕著な特性であり、大きな言語モデルの開発を著しく推進している。
スケーリング法則は、モデル設計とリソース割り当てを導く上で非常に有望です。
近年の研究では、スケーリング法則はNLPタスクやトランスフォーマーアーキテクチャに限らず、レコメンデーションなどの領域にも適用されることが示されている。
しかし、オンライン広告検索システムにおける法律研究の規模拡大に関する文献がまだ乏しい。
これは
1資源コスト及びオンライン収益のスケーリングに関する法律の特定は、大規模産業用途の時間的・訓練的資源の双方において、しばしばコストがかかる。
2) 異なるシステムの様々な設定により,スケーリング法則が様々なシナリオに適用されるのを防ぐ。
これらの課題に対処するため、実験コストの低いオンライン広告検索シナリオにおいて、オンライン収益のスケーリング法則と機械コストを識別するための軽量なパラダイムを提案する。
具体的には、単一因子(FLOP)に着目し、検索モデルにおけるオンライン収益と高い線形相関を示すR/R*というオフラインメトリックを提案する。
シミュレーションアルゴリズムを用いて,マシンコストをオフラインで見積もる。
したがって、ほとんどのオンライン実験を低コストのオフライン実験に変換することができる。
提案手法の有効性を検証するための総合的な実験を行い,クアイショーのオンライン広告検索システムにおけるスケーリング法則を検証した。
スケーリング法則を用いて,クアイショー広告システムにおけるROI制約モデル設計とマルチシナリオリソースアロケーションの実践的応用を実証する。
我々の知る限り、これは現実世界のシステムのオンライン広告検索におけるスケーリング法則を研究する最初の試みであり、広告システムの最適化におけるスケーリング法則の大きな可能性を示している。
関連論文リスト
- Gemstones: A Model Suite for Multi-Faceted Scaling Laws [67.46133952358785]
Gemstonesは、これまでで最も包括的なオープンソースのスケーリング法データセットです。
これらのモデルは、異なる学習率、スケジュール、アーキテクチャ形状で訓練されている。
私たちのチェックポイントは、モデルの幅と深さの関数として言語の性能を予測する法則のような、より複雑なスケーリング研究を可能にします。
論文 参考訳(メタデータ) (2025-02-07T18:09:38Z) - ScaMo: Exploring the Scaling Law in Autoregressive Motion Generation Model [27.532993606576152]
本稿では,モーショントークン機構であるMotionQ-VAEと,テキストFS-VAE変換器を備えるスケーラブルなモーション生成フレームワークを提案する。
運動生成の文脈におけるスケーリング法則の存在を初めて確認する。
計算予算が1e18$である場合、最適なトランスフォーマーサイズ、語彙サイズ、およびデータ要求を予測する。
論文 参考訳(メタデータ) (2024-12-19T06:22:19Z) - ScalingNote: Scaling up Retrievers with Large Language Models for Real-World Dense Retrieval [72.2676180980573]
大規模言語モデル(LLM)は、高密度検索のスケールアップに活用できる優れた性能を示した。
オンラインクエリ待ち時間を維持しながら、検索にLLMのスケーリング可能性を利用する2段階のScalingNoteを提案する。
両段階のスケーリング手法はエンド・ツー・エンドのモデルより優れており,産業シナリオにおけるLLMを用いた高密度検索のスケーリング法則を検証している。
論文 参考訳(メタデータ) (2024-11-24T09:27:43Z) - Bayesian scaling laws for in-context learning [72.17734205418502]
In-context Learning(ICL)は、言語モデルをトレーニング更新なしで複雑なタスクを実行するための強力なテクニックである。
我々は、ICCがベイズ学習者を近似し、ICCのための新しいベイズスケーリング法則のファミリーを開発することを示す。
論文 参考訳(メタデータ) (2024-10-21T21:45:22Z) - Selecting Large Language Model to Fine-tune via Rectified Scaling Law [74.84096546112215]
制約のあるリソースを前提に、すべてのモデルを微調整し、その後の選択は非現実的である。
微調整スケーリング曲線は、よく知られた「パワーフェーズ」だけでなく、これまで観測されていなかった「プリパワーフェーズ」も含む。
本法則を利用して,資源消費の数百倍少ない最適モデルを選択する新しいLCM選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-04T01:55:00Z) - Reproducible scaling laws for contrastive language-image learning [42.354402731615444]
コントラッシブ言語イメージ事前学習(CLIP)のスケーリング法を,パブリックLAIONデータセットとオープンソースOpenCLIPリポジトリを用いて検討する。
私たちの大規模な実験には、最大20億のイメージテキストペアでトレーニングされたモデルと、複数の下流タスクに対する電力法スケーリングの特定が含まれています。
OpenAIモデルとOpenCLIPモデルは、同一のモデルアーキテクチャにもかかわらず、異なるスケーリング挙動を示すため、トレーニング分布がスケーリング法則において重要な役割を果たすことがわかった。
論文 参考訳(メタデータ) (2022-12-14T10:24:50Z) - A Solvable Model of Neural Scaling Laws [72.8349503901712]
大量のパラメータを持つ大規模な言語モデルは、インターネットに近い数のトークンで訓練されると、ニューラルネットワークのスケーリング法則に従うことが実証的に示されている。
我々は,このニューラルスケーリング現象を捉える統計モデル(共同生成データモデルとランダム特徴モデル)を提案する。
主な発見は、自然データセットの統計に現れる電力法則が非線形ランダムな特徴写像によって拡張される方法である。
論文 参考訳(メタデータ) (2022-10-30T15:13:18Z) - Scaling Laws Beyond Backpropagation [64.0476282000118]
因果デコーダのみの変換器を効率的に訓練するための直接フィードバックアライメントの有効性について検討した。
DFAはバックプロパゲーションよりも効率的なスケーリングを提供していないことが分かりました。
論文 参考訳(メタデータ) (2022-10-26T10:09:14Z) - Understanding Scaling Laws for Recommendation Models [1.6283945233720964]
DLRMスタイルレコメンデーションモデル,特にClick-Through Rate(CTR)の実証スケーリング法則について検討する。
データ、パラメータ、計算の3つの異なるリソース次元に沿ってスケーリング効率を特徴付ける。
パラメータスケーリングは、現在研究中のモデルアーキテクチャにとって絶大であり、より高いパフォーマンスのモデルアーキテクチャが出現するまでは、データスケーリングが先進的な道であることを示す。
論文 参考訳(メタデータ) (2022-08-17T19:13:17Z) - Beyond neural scaling laws: beating power law scaling via data pruning [37.804100045519846]
理論的には、電力法のスケーリングを超越して、指数的なスケーリングまで削減できる可能性も示しています。
よりシンプルで安価でスケーラブルな自己教師付きプルーニングメトリクスを開発し、最高の教師付き指標に匹敵するパフォーマンスを示す。
全体として、我々の研究は、優れたデータ処理メトリクスの発見が、ニューラルネットワークのスケーリング法則を大幅に改善する上で、実行可能な道筋となることを示唆している。
論文 参考訳(メタデータ) (2022-06-29T09:20:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。