論文の概要: An Efficient Framework for Whole-Page Reranking via Single-Modal Supervision
- arxiv url: http://arxiv.org/abs/2510.16803v1
- Date: Sun, 19 Oct 2025 11:58:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.153902
- Title: An Efficient Framework for Whole-Page Reranking via Single-Modal Supervision
- Title(参考訳): シングルモーダル・スーパービジョンによる全ページ更新のための効率的なフレームワーク
- Authors: Zishuai Zhang, Sihao Yu, Wenyi Xie, Ying Nie, Junfeng Wang, Zhiming Zheng, Dawei Yin, Hainan Zhang,
- Abstract要約: 全ページのランク付けは、検索エンジンのユーザー体験を形作る上で重要な役割を果たす。
既存の手法は主に人間の注釈付き大規模データに依存している。
SMARは,新規なページリグレードフレームワークである。
- 参考スコア(独自算出の注目度): 33.94227889598032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The whole-page reranking plays a critical role in shaping the user experience of search engines, which integrates retrieval results from multiple modalities, such as documents, images, videos, and LLM outputs. Existing methods mainly rely on large-scale human-annotated data, which is costly to obtain and time-consuming. This is because whole-page annotation is far more complex than single-modal: it requires assessing the entire result page while accounting for cross-modal relevance differences. Thus, how to improve whole-page reranking performance while reducing annotation costs is still a key challenge in optimizing search engine result pages(SERP). In this paper, we propose SMAR, a novel whole-page reranking framework that leverages strong Single-modal rankers to guide Modal-wise relevance Alignment for effective Reranking, using only limited whole-page annotation to outperform fully-annotated reranking models. Specifically, high-quality single-modal rankers are first trained on data specific to their respective modalities. Then, for each query, we select a subset of their outputs to construct candidate pages and perform human annotation at the page level. Finally, we train the whole-page reranker using these limited annotations and enforcing consistency with single-modal preferences to maintain ranking quality within each modality. Experiments on the Qilin and Baidu datasets demonstrate that SMAR reduces annotation costs by about 70-90\% while achieving significant ranking improvements compared to baselines. Further offline and online A/B testing on Baidu APPs also shows notable gains in standard ranking metrics as well as user experience indicators, fully validating the effectiveness and practical value of our approach in real-world search scenarios.
- Abstract(参考訳): ページ全体のリランクは、ドキュメント、画像、ビデオ、LLM出力などの複数のモダリティからの検索結果を統合した検索エンジンのユーザエクスペリエンスを形成する上で、重要な役割を果たす。
既存の手法は主に大規模な人手による注釈付きデータに依存しており、取得と時間の浪費に要する費用がかかる。
これは、ページ全体のアノテーションがシングルモーダルよりもはるかに複雑であるためである。
このように、アノテーションコストを削減しながらページ全体のランク付け性能を改善することは、検索エンジン結果ページ(SERP)の最適化において依然として重要な課題である。
本稿では,強力なシングルモーダルなランク付けを駆使してモダルワイズ・アライメントを効果的リライメントに導出する,新しい全ページリグレードフレームワークSMARを提案する。
具体的には、高品質な単一モードローダは、まずそれぞれのモダリティに特有のデータに基づいて訓練される。
そして、各クエリに対して出力のサブセットを選択し、候補ページを作成し、ページレベルで人間のアノテーションを実行する。
最後に、これらの制限されたアノテーションを使用してページ全体のリランカをトレーニングし、各モダリティ内でランキング品質を維持するために、単一モードの好みと整合性を持たせる。
QilinとBaiduのデータセットの実験では、SMARはアノテーションのコストを約70~90%削減し、ベースラインよりも格段に高いランク改善を実現している。
Baidu APPs上でのオフラインおよびオンラインのA/Bテストは、実際の検索シナリオにおける我々のアプローチの有効性と実践的価値を完全に検証する、ユーザーエクスペリエンス指標と同様に、標準的なランキング指標の顕著な増加を示します。
関連論文リスト
- Generating Query-Relevant Document Summaries via Reinforcement Learning [5.651096645934245]
ReLSumは、検索関連性に最適化された製品記述のクエリ関連要約を生成するために設計された強化学習フレームワークである。
このフレームワークは、トレーニング可能な大言語モデル(LLM)を使用して要約を生成し、その後、クロスエンコーダランキングモデルの入力として使用される。
実験の結果、オンラインユーザエンゲージメント指標と同様に、リコールやNDCGを含むオフラインメトリクスの大幅な改善が示されている。
論文 参考訳(メタデータ) (2025-08-11T18:52:28Z) - SPARE: Single-Pass Annotation with Reference-Guided Evaluation for Automatic Process Supervision and Reward Modelling [58.05959902776133]
私たちはSingle-Passを紹介します。
Reference-Guided Evaluation (SPARE)は、効率的なステップごとのアノテーションを可能にする新しい構造化フレームワークである。
数学的推論(GSM8K, MATH)、マルチホップ質問応答(MuSiQue-Ans)、空間推論(SpaRP)にまたがる4つの多様なデータセットにおけるSPAREの有効性を実証する。
ProcessBenchでは、SPAREがデータ効率のよいアウト・オブ・ディストリビューションの一般化を実証し、トレーニングサンプルの$sim$16%しか使用していない。
論文 参考訳(メタデータ) (2025-06-18T14:37:59Z) - Enhanced Whole Page Optimization via Mixed-Grained Reward Mechanism-Adapted Language Models [21.43957709683293]
本稿では,ページレベルの報酬とアイテムレベルの報酬を混合した,報酬に基づく微調整手法を提案する。
PageLLMはベースラインを上回り、1000万人以上のオンラインA/Bテストで0.44%のGMVアップを達成した。
論文 参考訳(メタデータ) (2025-06-10T08:05:42Z) - Utility-Focused LLM Annotation for Retrieval and Retrieval-Augmented Generation [96.18720164390699]
本稿では,大規模言語モデル (LLM) を用いた検索・検索・拡張生成システム (RAG) の訓練における文書ユーティリティのアノテートについて検討する。
以上の結果から,LLM生成アノテーションは,人間のアノテーションや下流QAメトリクスのみを訓練したモデルと比較して,ドメイン外検索性能の向上とRAG結果の改善を図っている。
論文 参考訳(メタデータ) (2025-04-07T16:05:52Z) - Enhanced Retrieval of Long Documents: Leveraging Fine-Grained Block Representations with Large Language Models [24.02950598944251]
文書の関連性評価の精度を高めることを目的とした,新しい,きめ細かいアプローチを提案する。
提案手法はまず,長い文書をブロックに分割し,それぞれを LLM を用いて埋め込む。
重み付け和法により,クエリブロック関連度スコアを集約し,ドキュメント全体のクエリに対する総合的なスコアを得る。
論文 参考訳(メタデータ) (2025-01-28T16:03:52Z) - A Distributed Collaborative Retrieval Framework Excelling in All Queries and Corpora based on Zero-shot Rank-Oriented Automatic Evaluation [46.33857318525812]
分散協調検索フレームワーク(DCRF)を提案する。
様々な検索モデルを統合システムに統合し、ユーザのクエリに対して最適な結果を動的に選択する。
RankGPTやListT5のような効果的なリストワイドメソッドに匹敵するパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2024-12-16T14:55:57Z) - Self-Calibrated Listwise Reranking with Large Language Models [137.6557607279876]
大規模言語モデル (LLM) はシーケンシャル・ツー・シーケンス・アプローチによってタスクのランク付けに使用されている。
この階調のパラダイムは、より大きな候補集合を反復的に扱うためにスライディングウインドウ戦略を必要とする。
そこで本稿では,LLMを用いた自己校正リストのランク付け手法を提案する。
論文 参考訳(メタデータ) (2024-11-07T10:31:31Z) - List-aware Reranking-Truncation Joint Model for Search and
Retrieval-augmented Generation [80.12531449946655]
本稿では,2つのタスクを同時に実行可能なRe rank-Truncation joint model(GenRT)を提案する。
GenRTは、エンコーダ-デコーダアーキテクチャに基づく生成パラダイムによるリランクとトランケーションを統合している。
提案手法は,Web検索および検索拡張LLMにおけるリランクタスクとトラルケーションタスクの両方においてSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-02-05T06:52:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。