論文の概要: GRank: Towards Target-Aware and Streamlined Industrial Retrieval with a Generate-Rank Framework
- arxiv url: http://arxiv.org/abs/2510.15299v1
- Date: Fri, 17 Oct 2025 04:15:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.467573
- Title: GRank: Towards Target-Aware and Streamlined Industrial Retrieval with a Generate-Rank Framework
- Title(参考訳): GRank:Generate-Rankフレームワークによるターゲット認識と合理化産業検索を目指して
- Authors: Yijia Sun, Shanshan Huang, Zhiyuan Guan, Qiang Luo, Ruiming Tang, Kun Gai, Guorui Zhou,
- Abstract要約: 産業規模のレコメンデータシステムはカスケードパイプラインに依存しており、検索段階では何十億ものアイテムから設定されたハイリコール候補を厳格なレイテンシで返さなければならない。
本稿では,ユーザ中心の検索とターゲット認識学習をシームレスに統一する新しい構造化インデックスフリー検索パラダイムであるGRankを提案する。
- 参考スコア(独自算出の注目度): 47.25361445845229
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Industrial-scale recommender systems rely on a cascade pipeline in which the retrieval stage must return a high-recall candidate set from billions of items under tight latency. Existing solutions ei- ther (i) suffer from limited expressiveness in capturing fine-grained user-item interactions, as seen in decoupled dual-tower architectures that rely on separate encoders, or generative models that lack precise target-aware matching capabilities, or (ii) build structured indices (tree, graph, quantization) whose item-centric topologies struggle to incorporate dynamic user preferences and incur prohibitive construction and maintenance costs. We present GRank, a novel structured-index-free retrieval paradigm that seamlessly unifies target-aware learning with user-centric retrieval. Our key innovations include: (1) A target-aware Generator trained to perform personalized candidate generation via GPU-accelerated MIPS, eliminating semantic drift and maintenance costs of structured indexing; (2) A lightweight but powerful Ranker that performs fine-grained, candidate-specific inference on small subsets; (3) An end-to-end multi-task learning framework that ensures semantic consistency between generation and ranking objectives. Extensive experiments on two public benchmarks and a billion-item production corpus demonstrate that GRank improves Recall@500 by over 30% and 1.7$\times$ the P99 QPS of state-of-the-art tree- and graph-based retrievers. GRank has been fully deployed in production in our recommendation platform since Q2 2025, serving 400 million active users with 99.95% service availability. Online A/B tests confirm significant improvements in core engagement metrics, with Total App Usage Time increasing by 0.160% in the main app and 0.165% in the Lite version.
- Abstract(参考訳): 産業規模のレコメンデータシステムはカスケードパイプラインに依存しており、検索段階では何十億ものアイテムから設定されたハイリコール候補を厳格なレイテンシで返さなければならない。
既存の解 ei-ther
i) 個別のエンコーダに依存する分離された二重塔アーキテクチャや、正確な目標対応能力に欠ける生成モデルに見られるような、きめ細かなユーザ・イテム相互作用の捕捉において、限定的な表現性に苦しむこと。
(i) アイテム中心のトポロジが動的ユーザの好みを取り入れたり、禁忌な建設や保守コストを発生させるのに苦労する構造化インデックス(ツリー、グラフ、量子化)を構築する。
本稿では,ユーザ中心の検索とターゲット認識学習をシームレスに統一する新しい構造化インデックスフリー検索パラダイムであるGRankを提案する。
キーとなるイノベーションは,(1)GPUアクセラレーションされたMIPSを用いてパーソナライズされた候補生成を訓練し,構造化インデックスのセマンティックドリフトとメンテナンスコストを低減させるターゲット・アウェア・ジェネレータ,(2)小さなサブセットに対してきめ細かな候補固有推論を行う軽量で強力なランサー,(3)生成とランキングのセマンティック一貫性を保証するエンドツーエンドのマルチタスク学習フレームワークである。
2つの公開ベンチマークと10億のプロダクションコーパスに関する大規模な実験は、GRankがRecall@500を30%以上改善し、1.7$\times$P99 QPSで最先端のツリーとグラフベースのレトリバーを開発したことを示している。
GRankは2025年の第2四半期以降、当社のレコメンデーションプラットフォームで完全に運用されている。
オンラインA/Bテストでは、コアエンゲージメント指標が大幅に改善され、Total App Usage Timeがメインアプリで0.160%、Liteバージョンで0.165%増加した。
関連論文リスト
- OneSearch: A Preliminary Exploration of the Unified End-to-End Generative Framework for E-commerce Search [43.94443394870866]
OneSearchは、eコマース検索のための最初の産業向けエンドツーエンド生成フレームワークである。
OneSearchは運用費を75.40%削減し、Model FLOPsの利用を3.26%から27.32%に改善した。
このシステムはKuaishouの複数の検索シナリオにまたがって展開され、数百万のユーザーにサービスを提供している。
論文 参考訳(メタデータ) (2025-09-03T11:50:04Z) - Leveraging Generative Models for Real-Time Query-Driven Text Summarization in Large-Scale Web Search [54.987957691350665]
クエリ駆動テキスト要約(QDTS)は、与えられたクエリに基づいてテキスト文書から簡潔で情報的な要約を生成することを目的としている。
従来の抽出的要約モデルは、主にランク付け候補の要約セグメントに基づいており、産業応用において支配的なアプローチとなっている。
産業Web検索におけるリアルタイムQDTSに対処するための生成モデルの適用を開拓するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-28T08:51:51Z) - Open-Source Agentic Hybrid RAG Framework for Scientific Literature Review [2.092154729589438]
本稿では,ハイブリッドRAGパイプラインを自律エージェント内にカプセル化するエージェントアプローチを提案する。
当社のパイプラインでは,PubMedやarXiv,Google Scholar APIから,バイオロジカルなオープンアクセスデータを収集しています。
Llama-3.3-70B エージェントが GraphRAG (クエリを Cypher for KG に変換する) または VectorRAG (スパースと高密度検索を組み合わせて再ランク付けする) を選択する
論文 参考訳(メタデータ) (2025-07-30T18:54:15Z) - ArtifactsBench: Bridging the Visual-Interactive Gap in LLM Code Generation Evaluation [51.297873393639456]
ArtifactsBenchは自動ビジュアルコード生成評価のためのフレームワークである。
我々のフレームワークは、生成した各アーティファクトをレンダリングし、時間的スクリーンショットを通してその動的な振る舞いをキャプチャする。
我々は1,825の多様なタスクの新しいベンチマークを構築し、30以上の主要な大規模言語モデルを評価する。
論文 参考訳(メタデータ) (2025-07-07T12:53:00Z) - Learning to Rank in Generative Retrieval [62.91492903161522]
生成的検索は、検索対象として関連する通路の識別子文字列を生成することを目的としている。
我々はLTRGRと呼ばれる生成検索のための学習 torankフレームワークを提案する。
このフレームワークは、現在の生成的検索システムを強化するために、追加の学習からランクまでのトレーニングフェーズのみを必要とする。
論文 参考訳(メタデータ) (2023-06-27T05:48:14Z) - How Does Generative Retrieval Scale to Millions of Passages? [68.98628807288972]
各種コーパス尺度における生成的検索手法の実証的研究を行った。
我々は8.8Mパスのコーパスで数百万のパスに生成検索をスケールし、モデルサイズを最大11Bパラメータまで評価する。
生成的検索は、小さなコーパス上の最先端のデュアルエンコーダと競合するが、数百万のパスへのスケーリングは依然として重要で未解決の課題である。
論文 参考訳(メタデータ) (2023-05-19T17:33:38Z) - AutoBERT-Zero: Evolving BERT Backbone from Scratch [94.89102524181986]
そこで本稿では,提案するハイブリッドバックボーンアーキテクチャを自動検索するOP-NASアルゴリズムを提案する。
提案するOP-NASの効率を向上させるために,探索アルゴリズムと候補モデルの評価を最適化する。
実験の結果、検索されたアーキテクチャ(AutoBERT-Zero)は、様々な下流タスクにおいてBERTとそのバリエーションの異なるモデル容量を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-07-15T16:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。