論文の概要: RankT5: Fine-Tuning T5 for Text Ranking with Ranking Losses
- arxiv url: http://arxiv.org/abs/2210.10634v1
- Date: Wed, 12 Oct 2022 20:51:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 20:17:19.523952
- Title: RankT5: Fine-Tuning T5 for Text Ranking with Ranking Losses
- Title(参考訳): RankT5: ランキング付きテキストランキングのための微調整T5
- Authors: Honglei Zhuang, Zhen Qin, Rolf Jagerman, Kai Hui, Ji Ma, Jing Lu,
Jianmo Ni, Xuanhui Wang and Michael Bendersky
- Abstract要約: 本稿では,2つのT5ベースのランキングモデル構造,エンコーダデコーダとエンコーダのみのランキングモデルを提案する。
実験の結果,提案したランキング損失モデルでは,異なる公開テキストランキングデータセットに対して,実質的なランキング性能向上が達成できることがわかった。
- 参考スコア(独自算出の注目度): 39.67403439576671
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, substantial progress has been made in text ranking based on
pretrained language models such as BERT. However, there are limited studies on
how to leverage more powerful sequence-to-sequence models such as T5. Existing
attempts usually formulate text ranking as classification and rely on
postprocessing to obtain a ranked list. In this paper, we propose RankT5 and
study two T5-based ranking model structures, an encoder-decoder and an
encoder-only one, so that they not only can directly output ranking scores for
each query-document pair, but also can be fine-tuned with "pairwise" or
"listwise" ranking losses to optimize ranking performances. Our experiments
show that the proposed models with ranking losses can achieve substantial
ranking performance gains on different public text ranking data sets. Moreover,
when fine-tuned with listwise ranking losses, the ranking model appears to have
better zero-shot ranking performance on out-of-domain data sets compared to the
model fine-tuned with classification losses.
- Abstract(参考訳): 近年,BERT などの事前学習言語モデルに基づくテキストランキングが大幅に進歩している。
しかし、t5のようなより強力なシーケンシャル・ツー・シーケンスモデルをどのように活用するかに関する研究は限られている。
既存の試みは通常、テキストランキングを分類として定式化し、ポストプロセッシングに頼ってランク付けリストを得る。
本稿では,2つのT5ベースのランキングモデル構造,エンコーダデコーダとエンコーダオンリーのモデル構造について検討し,クエリードキュメンテーションペアごとのランキングスコアを直接出力するだけでなく,ランキング性能を最適化するために,"ペアワイズ"や"リストワイズ"で微調整することもできる。
本実験により,提案したランキング損失モデルにより,公開テキストランキングデータセットのランキング性能が大幅に向上することを示す。
さらに、リストワイズランキング損失を微調整すると、分類損失を微調整したモデルと比較して、ドメイン外データセットにおけるゼロショットランキング性能が向上するように見える。
関連論文リスト
- Learning when to rank: Estimation of partial rankings from sparse, noisy comparisons [0.0]
偏位を学習するための原理的ベイズ手法を開発した。
我々の枠組みはいかなる統計的ランキング法にも適応できる。
従来のランキングよりも、データの微妙な要約が提供される。
論文 参考訳(メタデータ) (2025-01-05T11:04:30Z) - From Pairwise to Ranking: Climbing the Ladder to Ideal Collaborative Filtering with Pseudo-Ranking [13.01752267289297]
理想的なコラボレーティブフィルタリングモデルは、ユーザのすべての項目の完全なランキングから学習し、最適なトップKレコメンデーションを作成すべきである。
ほとんどのCFモデルは、完全なランク付けを近似するためにペアワイズ損失関数に依存しており、結果として大きな性能差が生じる。
そこで本研究では,従来のノイズ注入機構によって制御された擬似階調を導入し,ランキング情報の欠如に対処する擬似階調パラダイム(PRP)を提案する。
論文 参考訳(メタデータ) (2024-12-24T05:01:16Z) - Found in the Middle: Permutation Self-Consistency Improves Listwise Ranking in Large Language Models [63.714662435555674]
大規模言語モデル(LLM)は、文脈の使い方に位置バイアスを示す。
我々は,ブラックボックスLLMのランキングリスト出力に対して,自己整合性(permutation self-consistency)を提案する。
LLaMA v2 (70B) では GPT-3.5 では 7-18% , LLaMA v2 (70B) では 8-16% である。
論文 参考訳(メタデータ) (2023-10-11T17:59:02Z) - Replace Scoring with Arrangement: A Contextual Set-to-Arrangement
Framework for Learning-to-Rank [40.81502990315285]
ラーニング・トゥ・ランク(Learning-to-rank)は、トップNレコメンデーションタスクの中核的なテクニックであり、理想的なランク付けはアイテムからアレンジへのマッピングである。
既存のソリューションのほとんどは確率的ランキング原理(PRP)のパラダイムに該当する。すなわち、まず候補セットで各項目をスコアし、次にソート操作を行い、トップランキングリストを生成する。
本稿では,個別のスコアリングやソートを必要とせずに,候補項目の順列を直接生成する新しいフレームワークであるSet-To-Arrangement Ranking (STARank)を提案する。
論文 参考訳(メタデータ) (2023-08-05T12:22:26Z) - Learning to Rank when Grades Matter [11.981942948477236]
グレードラベルは、現実世界の学習 to ランクのアプリケーションではユビキタスである。
従来の学習からランクまでの技術は、実際の成績を予測することを無視する。
ランクとグレードの予測を協調的に最適化する多目的定式化を提案する。
論文 参考訳(メタデータ) (2023-06-14T17:30:02Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - T5Score: Discriminative Fine-tuning of Generative Evaluation Metrics [94.69907794006826]
我々は、現在利用可能なデータから、教師なし信号と教師なし信号の両方を用いて、両方の世界のベストを結合するフレームワークを提案する。
このアイデアを,mT5をバックボーンとするトレーニング信号を使用するメトリックであるT5Scoreをトレーニングすることで,運用する。
T5Scoreは、セグメントレベルの既存のトップスコアメトリクスに対して、すべてのデータセットで最高のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-12T06:29:04Z) - Differentiable Top-k Classification Learning [29.75063301688965]
単一 k を使わずに、複数の k に対してモデルを同時に最適化する。
緩和kは, 上位5の精度向上だけでなく, 上位1の精度向上につながることがわかった。
論文 参考訳(メタデータ) (2022-06-15T04:13:59Z) - PiRank: Learning To Rank via Differentiable Sorting [85.28916333414145]
ランク付けのための新しい分類可能なサロゲートであるPiRankを提案する。
ピランクは所望の指標をゼロ温度の限界で正確に回収する。
論文 参考訳(メタデータ) (2020-12-12T05:07:36Z) - Document Ranking with a Pretrained Sequence-to-Sequence Model [56.44269917346376]
関連ラベルを「ターゲット語」として生成するためにシーケンス・ツー・シーケンス・モデルをどのように訓練するかを示す。
提案手法は,データポーラ方式におけるエンコーダのみのモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-03-14T22:29:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。