論文の概要: Learning to Rank with Variable Result Presentation Lengths
- arxiv url: http://arxiv.org/abs/2506.23319v1
- Date: Sun, 29 Jun 2025 16:28:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.828148
- Title: Learning to Rank with Variable Result Presentation Lengths
- Title(参考訳): 様々な結果提示長によるランクの学習
- Authors: Norman Knyazev, Harrie Oosterhuis,
- Abstract要約: ランク付け法を学ぶことは、上位Kランクのそれぞれの文書が同等のフォーマットで表示されると仮定する。
本稿では,文書の順序と提示期間を同時に決定する可変表示長ランキングタスクを提案する。
実験の結果,VLPLは期待されるすべてのドキュメントの露出と魅力を効果的にバランスさせ,異なるランキング設定で最高のパフォーマンスを実現することができることがわかった。
- 参考スコア(独自算出の注目度): 15.763596979466929
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning to Rank (LTR) methods generally assume that each document in a top-K ranking is presented in an equal format. However, previous work has shown that users' perceptions of relevance can be changed by varying presentations, i.e., allocating more vertical space to some documents to provide additional textual or image information. Furthermore, presentation length can also redirect attention, as users are more likely to notice longer presentations when scrolling through results. Deciding on the document presentation lengths in a fixed vertical space ranking is an important problem that has not been addressed by existing LTR methods. We address this gap by introducing the variable presentation length ranking task, where simultaneously the ordering of documents and their presentation length is decided. Despite being a generalization of standard ranking, we show that this setting brings significant new challenges: Firstly, the probability ranking principle no longer applies to this setting, and secondly, the problem cannot be divided into separate ordering and length selection tasks. We therefore propose VLPL - a new family of Plackett-Luce list-wise gradient estimation methods for the joint optimization of document ordering and lengths. Our semi-synthetic experiments show that VLPL can effectively balance the expected exposure and attractiveness of all documents, achieving the best performance across different ranking settings. Furthermore, we observe that even simple length-aware methods can achieve significant performance improvements over fixed-length models. Altogether, our theoretical and empirical results highlight the importance and difficulties of combining document presentation with LTR.
- Abstract(参考訳): ラーニング・トゥ・ランク (Learning to Rank, LTR) の手法は、一般に、上位Kランクの文書が同じフォーマットで表示されると仮定する。
しかし,従来の研究では,テキスト情報や画像情報を提供するために,より垂直な空間を文書に割り当てることによって,利用者の関連性に対する認識が変化できることが示されている。
さらに、表示長は、検索結果をスクロールする際により長い表示に気づく傾向があるため、注意を向けることもできる。
固定垂直空間ランキングにおける文書提示長の決定は、既存のLTR法では解決されていない重要な問題である。
文書の順序と提示長を同時に決定する可変表示長ランキングタスクを導入することで、このギャップに対処する。
第一に、確率ランクの原理はもはやこの設定には適用されず、第二に、問題は順序と長さの選択タスクに分割できない。
そこで本稿では,文書の順序と長さの同時最適化のための,Planet-Luceリストワイド勾配推定手法の新たなファミリーであるVLPLを提案する。
我々の半合成実験は、VLPLが期待される全ての文書の露出と魅力を効果的にバランスさせ、異なるランキング設定で最高のパフォーマンスを達成できることを示している。
さらに,単純な長さ認識手法であっても,固定長モデルよりも大幅な性能向上が期待できる。
また,論文の提示とLTRを組み合わせることの重要性と難しさを,理論的および実証的な結果から明らかにした。
関連論文リスト
- Enhanced Retrieval of Long Documents: Leveraging Fine-Grained Block Representations with Large Language Models [24.02950598944251]
文書の関連性評価の精度を高めることを目的とした,新しい,きめ細かいアプローチを提案する。
提案手法はまず,長い文書をブロックに分割し,それぞれを LLM を用いて埋め込む。
重み付け和法により,クエリブロック関連度スコアを集約し,ドキュメント全体のクエリに対する総合的なスコアを得る。
論文 参考訳(メタデータ) (2025-01-28T16:03:52Z) - Modeling Layout Reading Order as Ordering Relations for Visually-rich Document Understanding [33.96748793247162]
本稿では,レイアウト要素の集合上の順序関係としてレイアウト読み込み順序をモデル化する。
レイアウト読み出し順序の改善型の導入による実用的利点を強調するため, 読み出し順序対応型パイプラインを提案する。
論文 参考訳(メタデータ) (2024-09-29T12:00:57Z) - List-aware Reranking-Truncation Joint Model for Search and
Retrieval-augmented Generation [80.12531449946655]
本稿では,2つのタスクを同時に実行可能なRe rank-Truncation joint model(GenRT)を提案する。
GenRTは、エンコーダ-デコーダアーキテクチャに基づく生成パラダイムによるリランクとトランケーションを統合している。
提案手法は,Web検索および検索拡張LLMにおけるリランクタスクとトラルケーションタスクの両方においてSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-02-05T06:52:53Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - M-Tuning: Prompt Tuning with Mitigated Label Bias in Open-Set Scenarios [58.617025733655005]
緩和ラベルバイアス(M-Tuning)を用いた視覚言語プロンプトチューニング手法を提案する。
これはWordNetからのオープンワードを導入し、クローズドセットラベルワードのみからもっと多くのプロンプトテキストを形成する単語の範囲を広げ、シミュレートされたオープンセットシナリオでプロンプトをチューニングする。
提案手法は,様々なスケールのデータセット上で最高の性能を達成し,広範囲にわたるアブレーション研究もその有効性を検証した。
論文 参考訳(メタデータ) (2023-03-09T09:05:47Z) - ERNIE-Layout: Layout Knowledge Enhanced Pre-training for Visually-rich
Document Understanding [52.3895498789521]
レイアウト知識を向上した新しい文書事前学習ソリューションであるERNIEを提案する。
まず、直列化段階で入力シーケンスを並べ替え、相関的な事前学習タスクを示し、順序予測を行い、文書の適切な読み順序を学習する。
実験の結果、ERNIEは様々な下流タスクにおいて優れた性能を示し、キー情報に新たな最先端設定、文書質問応答を実現している。
論文 参考訳(メタデータ) (2022-10-12T12:59:24Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。