論文の概要: RIA: A Ranking-Infused Approach for Optimized listwise CTR Prediction
- arxiv url: http://arxiv.org/abs/2511.21394v1
- Date: Wed, 26 Nov 2025 13:45:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:59.119408
- Title: RIA: A Ranking-Infused Approach for Optimized listwise CTR Prediction
- Title(参考訳): RIA: 最適化されたリストワイズCTR予測のためのランキング付きアプローチ
- Authors: Guoxiao Zhang, Tan Qu, Ao Li, DongLin Ni, Qianlong Xie, Xingxing Wang,
- Abstract要約: 我々はRIA(Ranking-Infused Architecture)を提案する。RIA(Ranking-Infused Architecture)は、ポイントワイズとリストワイズをシームレスに統合する統合されたエンドツーエンドフレームワークである。
ランキングと再ランクの表現を共有することで、RIAは低レイテンシを維持しながら、リッチなコンテキストの知識伝達を可能にします。
- 参考スコア(独自算出の注目度): 7.574825323148985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reranking improves recommendation quality by modeling item interactions. However, existing methods often decouple ranking and reranking, leading to weak listwise evaluation models that suffer from combinatorial sparsity and limited representational power under strict latency constraints. In this paper, we propose RIA (Ranking-Infused Architecture), a unified, end-to-end framework that seamlessly integrates pointwise and listwise evaluation. RIA introduces four key components: (1) the User and Candidate DualTransformer (UCDT) for fine-grained user-item-context modeling; (2) the Context-aware User History and Target (CUHT) module for position-sensitive preference learning; (3) the Listwise Multi-HSTU (LMH) module to capture hierarchical item dependencies; and (4) the Embedding Cache (EC) module to bridge efficiency and effectiveness during inference. By sharing representations across ranking and reranking, RIA enables rich contextual knowledge transfer while maintaining low latency. Extensive experiments show that RIA outperforms state-of-the-art models on both public and industrial datasets, achieving significant gains in AUC and LogLoss. Deployed in Meituan advertising system, RIA yields a +1.69% improvement in Click-Through Rate (CTR) and a +4.54% increase in Cost Per Mille (CPM) in online A/B tests.
- Abstract(参考訳): リグレードはアイテムインタラクションをモデル化することでレコメンデーション品質を改善する。
しかし、既存の手法はしばしばランク付けとランク付けを分離し、厳密なレイテンシ制約の下で組合せの間隔と限定的な表現力に悩まされる弱いリストワイズ評価モデルに繋がる。
本稿ではRIA(Ranking-Infused Architecture)を提案する。RIA(Ranking-Infused Architecture)は、ポイントワイズとリストワイズをシームレスに統合する統合されたエンドツーエンドフレームワークである。
RIAは、(1)ユーザと候補のデュアルトランスフォーマー(UCDT)、(2)コンテキスト認識のユーザ履歴とターゲット(CUHT)、(3)階層的なアイテム依存をキャプチャするリストワイズマルチHSTU(LMH)モジュール、(4)推論時の効率性と効率を橋渡しする埋め込みキャッシュ(EC)モジュールの4つの主要なコンポーネントを導入している。
ランキングと再ランクの表現を共有することで、RIAは低レイテンシを維持しながら、リッチなコンテキストの知識伝達を可能にします。
大規模な実験によると、RIAはパブリックデータセットとインダストリアルデータセットの両方で最先端のモデルより優れており、AUCとLogLossでかなりの利益を上げている。
Meituanの広告システムで展開されたRIAは、クリックスルーレート(CTR)が+1.69%向上し、オンラインA/Bテストにおいてコストパーミル(CPM)が+4.54%増加した。
関連論文リスト
- MARAG-R1: Beyond Single Retriever via Reinforcement-Learned Multi-Tool Agentic Retrieval [50.30107119622642]
大規模言語モデル(LLM)は推論と生成において優れているが、本質的には静的事前学習データによって制限されている。
Retrieval-Augmented Generation (RAG)は、LLMを外部知識に基盤を置くことでこの問題に対処する。
MarAG-R1は、LLMが複数の検索機構を動的に調整できる強化学習型マルチツールRAGフレームワークである。
論文 参考訳(メタデータ) (2025-10-31T15:51:39Z) - E2Rank: Your Text Embedding can Also be an Effective and Efficient Listwise Reranker [39.61739668491574]
本稿では,単一のテキスト埋め込みモデルを拡張し,高品質な検索とリストワイズを両立させるシンプルな統合フレームワークであるE2Rankを提案する。
クエリとドキュメント埋め込みのコサイン類似性を統一ランキング関数として適用することにより、リストワイドランキングプロンプトは、上位K文書からの信号に富んだ拡張クエリとして機能する。
E2Rankは、推論集約型BRIGHTベンチマークで最先端の結果を達成し、再ランクのレイテンシが非常に低い。
論文 参考訳(メタデータ) (2025-10-26T16:04:48Z) - LLM Routing with Dueling Feedback [49.67815163970033]
ユーザの満足度,モデルの専門性,推論コストのバランスを保ちながら,クエリ毎に最適なモデルを選択するという課題について検討する。
絶対的なスコアではなく、ペアの選好フィードバックから学習することで、ルーティングをコンテキストデュエルの帯域として定式化する。
分類的重み付けを用いた対照的な微調整を用いて,オフラインデータからモデル埋め込みを導出する表現学習手法であるカテゴリーキャリブレーション・ファインタニング(CCFT)を導入する。
論文 参考訳(メタデータ) (2025-10-01T12:52:25Z) - SCoRE: Streamlined Corpus-based Relation Extraction using Multi-Label Contrastive Learning and Bayesian kNN [0.2812395851874055]
本稿では,モジュール型かつ費用対効果の高い文レベルの関係抽出システムであるSCoREを紹介する。
SCoREは簡単なPLMスイッチングを可能にし、微調整を必要とせず、多様なコーパスやKGにスムーズに適応する。
SCoREは, エネルギー消費を大幅に削減しつつ, 最先端の手法に適合するか, 超越しているかを示す。
論文 参考訳(メタデータ) (2025-07-09T14:33:07Z) - Dynamic Context-oriented Decomposition for Task-aware Low-rank Adaptation with Less Forgetting and Faster Convergence [131.41894248194995]
タスク認識方式でアダプタを初期化する新しい手法であるコンテキスト指向分解適応(CorDA)を提案する。
本手法は,タスク認識により,知識保存モード (KPM) と命令レビューモード (IPM) の2つのオプション適応モードを実現する。
論文 参考訳(メタデータ) (2025-06-16T07:55:14Z) - Reinforced Model Merging [53.84354455400038]
本稿では,タスク統合に適した環境とエージェントを含むRMM(Reinforced Model Merging)という,革新的なフレームワークを提案する。
評価プロセス中にデータサブセットを利用することで、報酬フィードバックフェーズのボトルネックに対処し、RMMを最大100倍高速化する。
論文 参考訳(メタデータ) (2025-03-27T08:52:41Z) - RankRAG: Unifying Context Ranking with Retrieval-Augmented Generation in LLMs [60.38044044203333]
大規模言語モデル(LLM)は、通常、検索拡張生成(RAG)において、レトリバーからトップkコンテキストを利用する。
本稿では,RAGにおける文脈ランク付けと回答生成の両目的のために,単一のLLMをチューニング可能な新しい命令微調整フレームワークであるRanRAGを提案する。
例えば、GPT-4-0613, GPT-4-turbo-2024-0409, ChatQA-1.5, RAGベンチマークの最先端性能を備えたオープンソースモデルなどである。
論文 参考訳(メタデータ) (2024-07-02T17:59:17Z) - Your Causal Self-Attentive Recommender Hosts a Lonely Neighborhood [25.74765016730563]
両方向/自動符号化(AE)と一方向/自動回帰(AR)の注意機構の比較分析を行った。
理論解析を支援するため,5つのベンチマークでAE/ARの注目度を比較する実験を行った。
私たちは、パフォーマンスの高いセルフアテンティブなレコメンデーションのために、将来の設計選択に光を当てました。
論文 参考訳(メタデータ) (2024-06-04T07:29:59Z) - LiRank: Industrial Large Scale Ranking Models at LinkedIn [21.24938719541942]
LiRankはLinkedInの大規模ランキングフレームワークである。
我々はResidual DCNを含むいくつかのモデリングの改善を公表した。
本稿では、フィードランキング、求人推薦、広告クリックスルー率(CTR)予測といった大規模ユースケースに対するデプロイメント設定の詳細について述べる。
論文 参考訳(メタデータ) (2024-02-10T01:47:10Z) - Learning-To-Ensemble by Contextual Rank Aggregation in E-Commerce [8.067201256886733]
本稿では,アンサンブルモデルを文脈的ランクアグリゲータに置き換えた新しいラーニング・トゥ・エンサンブル・フレームワークRAEGOを提案する。
RA-EGOは当社のオンラインシステムにデプロイされ、収益を大幅に改善しました。
論文 参考訳(メタデータ) (2021-07-19T03:24:06Z) - Active Learning++: Incorporating Annotator's Rationale using Local Model
Explanation [84.10721065676913]
アノテーションは、与えられたクエリの重要性に基づいて入力特徴をランク付けすることで、ラベルを選択するための根拠を提供することができる。
すべての委員会モデルを等しく重み付けして次の事例を選択する代わりに、アノテータのランクにより高い一致で委員会モデルにより高い重みを割り当てます。
このアプローチは、LIMEのような局所的な説明を生成するためにモデルに依存しない手法を用いて、任意の種類のMLモデルに適用できる。
論文 参考訳(メタデータ) (2020-09-06T08:07:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。