論文の概要: Generative Pre-trained Ranking Model with Over-parameterization at Web-Scale (Extended Abstract)
- arxiv url: http://arxiv.org/abs/2409.16594v1
- Date: Wed, 25 Sep 2024 03:39:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 05:45:19.472591
- Title: Generative Pre-trained Ranking Model with Over-parameterization at Web-Scale (Extended Abstract)
- Title(参考訳): Webスケールでの過パラメータ化による事前学習ランキング生成モデル(拡張抽象)
- Authors: Yuchen Li, Haoyi Xiong, Linghe Kong, Jiang Bian, Shuaiqiang Wang, Guihai Chen, Dawei Yin,
- Abstract要約: ランク付け学習は、入力クエリに基づいて関連するWebページを優先順位付けするために、Web検索で広く使われている。
本稿では,これらの課題に対処するために,経験的 UlineSemi-uline Supervised ulinePre-trained (GS2P) モデルを提案する。
我々は,公開データセットと大規模検索エンジンから収集した実世界のデータセットの両方に対して,大規模なオフライン実験を行う。
- 参考スコア(独自算出の注目度): 73.57710917145212
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning to rank (LTR) is widely employed in web searches to prioritize pertinent webpages from retrieved content based on input queries. However, traditional LTR models encounter two principal obstacles that lead to suboptimal performance: (1) the lack of well-annotated query-webpage pairs with ranking scores covering a diverse range of search query popularities, which hampers their ability to address queries across the popularity spectrum, and (2) inadequately trained models that fail to induce generalized representations for LTR, resulting in overfitting. To address these challenges, we propose a \emph{\uline{G}enerative \uline{S}emi-\uline{S}upervised \uline{P}re-trained} (GS2P) LTR model. We conduct extensive offline experiments on both a publicly available dataset and a real-world dataset collected from a large-scale search engine. Furthermore, we deploy GS2P in a large-scale web search engine with realistic traffic, where we observe significant improvements in the real-world application.
- Abstract(参考訳): LTR(Learning to rank)は、検索クエリに基づいて検索されたコンテンツから関連するWebページを優先順位付けするために、Web検索に広く利用されている。
しかし、従来のLTRモデルでは、(1)検索クエリの人気度を多岐にわたってカバーする、十分な注釈付きクエリ-ウェブページペアの欠如、(2)LTRの汎用表現を誘導できない不適切なトレーニングモデル、という2つの障害に直面する。
これらの課題に対処するため、我々は \emph{\uline{G}enerative \uline{S}emi-\uline{S}upervised \uline{P}re-trained} (GS2P) LTRモデルを提案する。
我々は,公開データセットと大規模検索エンジンから収集した実世界のデータセットの両方に対して,大規模なオフライン実験を行う。
さらに,現実的なトラフィックを持つ大規模Web検索エンジンにGS2Pをデプロイし,実世界のアプリケーションにおける大幅な改善を観察する。
関連論文リスト
- WILBUR: Adaptive In-Context Learning for Robust and Accurate Web Agents [1.9352015147920767]
Wilburは、微分可能なランキングモデルと新しい命令合成手法を用いるアプローチである。
そこで本研究では,代表的目標を抽出する生成的オートカリキュラムのデータに基づいてランキングモデルをトレーニング可能であることを示す。
Wilbur氏はWebVoyagerベンチマークで最先端の結果を達成し、テキストのみのモデルを全体の8%、特定のウェブサイトで最大36%上回った。
論文 参考訳(メタデータ) (2024-04-08T23:10:47Z) - List-aware Reranking-Truncation Joint Model for Search and
Retrieval-augmented Generation [80.12531449946655]
本稿では,2つのタスクを同時に実行可能なRe rank-Truncation joint model(GenRT)を提案する。
GenRTは、エンコーダ-デコーダアーキテクチャに基づく生成パラダイムによるリランクとトランケーションを統合している。
提案手法は,Web検索および検索拡張LLMにおけるリランクタスクとトラルケーションタスクの両方においてSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-02-05T06:52:53Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - Contrastive Transformer Learning with Proximity Data Generation for
Text-Based Person Search [60.626459715780605]
記述的なテキストクエリーを与えられたテキストベースの人物検索は、画像ギャラリーからベストマッチした人物を検索することを目的としている。
このようなクロスモーダル検索タスクは、重要なモダリティギャップ、きめ細かい相違、注釈付きデータの不十分さのため、かなり難しい。
本稿では,テキストに基づく人物検索のための2つのトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2023-11-15T16:26:49Z) - Unified Embedding Based Personalized Retrieval in Etsy Search [0.42056926734482064]
グラフ, 変換器, 項ベース埋め込みを終末に組み込んだ統合埋め込みモデルを学習することを提案する。
我々のパーソナライズされた検索モデルは、検索購入率5.58%、サイト全体のコンバージョン率2.63%によって、検索体験を著しく改善する。
論文 参考訳(メタデータ) (2023-06-07T23:24:50Z) - A Large Scale Search Dataset for Unbiased Learning to Rank [51.97967284268577]
我々は、非バイアス学習のためのBaidu-ULTRデータセットをランク付けする。
ランダムに12億の検索セッションと7,008のエキスパートアノテートクエリをサンプリングする。
1)本来のセマンティックな特徴と,使用が容易な事前学習言語モデル,(2)位置,表示高さ,抽象表現などの十分な表示情報,(3)居住時間のような検索結果ページ(SERP)に対するリッチなユーザフィードバックを提供する。
論文 参考訳(メタデータ) (2022-07-07T02:37:25Z) - Deep-n-Cheap: An Automated Search Framework for Low Complexity Deep
Learning [3.479254848034425]
私たちはディープラーニングモデルを探すためのオープンソースのAutoMLフレームワークであるDeep-n-Cheapを紹介します。
私たちのフレームワークは、ベンチマークとカスタムデータセットの両方へのデプロイをターゲットとしています。
Deep-n-Cheapには、トレーニング時間やパラメータ数とパフォーマンスをトレードオフする、ユーザ管理可能な複雑性ペナルティが含まれている。
論文 参考訳(メタデータ) (2020-03-27T13:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。