論文の概要: RankT5: Fine-Tuning T5 for Text Ranking with Ranking Losses
- arxiv url: http://arxiv.org/abs/2210.10634v1
- Date: Wed, 12 Oct 2022 20:51:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 20:17:19.523952
- Title: RankT5: Fine-Tuning T5 for Text Ranking with Ranking Losses
- Title(参考訳): RankT5: ランキング付きテキストランキングのための微調整T5
- Authors: Honglei Zhuang, Zhen Qin, Rolf Jagerman, Kai Hui, Ji Ma, Jing Lu,
Jianmo Ni, Xuanhui Wang and Michael Bendersky
- Abstract要約: 本稿では,2つのT5ベースのランキングモデル構造,エンコーダデコーダとエンコーダのみのランキングモデルを提案する。
実験の結果,提案したランキング損失モデルでは,異なる公開テキストランキングデータセットに対して,実質的なランキング性能向上が達成できることがわかった。
- 参考スコア(独自算出の注目度): 39.67403439576671
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, substantial progress has been made in text ranking based on
pretrained language models such as BERT. However, there are limited studies on
how to leverage more powerful sequence-to-sequence models such as T5. Existing
attempts usually formulate text ranking as classification and rely on
postprocessing to obtain a ranked list. In this paper, we propose RankT5 and
study two T5-based ranking model structures, an encoder-decoder and an
encoder-only one, so that they not only can directly output ranking scores for
each query-document pair, but also can be fine-tuned with "pairwise" or
"listwise" ranking losses to optimize ranking performances. Our experiments
show that the proposed models with ranking losses can achieve substantial
ranking performance gains on different public text ranking data sets. Moreover,
when fine-tuned with listwise ranking losses, the ranking model appears to have
better zero-shot ranking performance on out-of-domain data sets compared to the
model fine-tuned with classification losses.
- Abstract(参考訳): 近年,BERT などの事前学習言語モデルに基づくテキストランキングが大幅に進歩している。
しかし、t5のようなより強力なシーケンシャル・ツー・シーケンスモデルをどのように活用するかに関する研究は限られている。
既存の試みは通常、テキストランキングを分類として定式化し、ポストプロセッシングに頼ってランク付けリストを得る。
本稿では,2つのT5ベースのランキングモデル構造,エンコーダデコーダとエンコーダオンリーのモデル構造について検討し,クエリードキュメンテーションペアごとのランキングスコアを直接出力するだけでなく,ランキング性能を最適化するために,"ペアワイズ"や"リストワイズ"で微調整することもできる。
本実験により,提案したランキング損失モデルにより,公開テキストランキングデータセットのランキング性能が大幅に向上することを示す。
さらに、リストワイズランキング損失を微調整すると、分類損失を微調整したモデルと比較して、ドメイン外データセットにおけるゼロショットランキング性能が向上するように見える。
関連論文リスト
- Found in the Middle: Permutation Self-Consistency Improves Listwise
Ranking in Large Language Models [68.35601781169424]
大規模言語モデル(LLM)は、文脈の使い方に位置バイアスを示す。
我々は,ブラックボックスLLMのランキングリスト出力に対して,自己整合性(permutation self-consistency)を提案する。
LLaMA v2 (70B) では GPT-3.5 では 7-18% , LLaMA v2 (70B) では 8-16% である。
論文 参考訳(メタデータ) (2023-10-11T17:59:02Z) - Replace Scoring with Arrangement: A Contextual Set-to-Arrangement
Framework for Learning-to-Rank [40.81502990315285]
ラーニング・トゥ・ランク(Learning-to-rank)は、トップNレコメンデーションタスクの中核的なテクニックであり、理想的なランク付けはアイテムからアレンジへのマッピングである。
既存のソリューションのほとんどは確率的ランキング原理(PRP)のパラダイムに該当する。すなわち、まず候補セットで各項目をスコアし、次にソート操作を行い、トップランキングリストを生成する。
本稿では,個別のスコアリングやソートを必要とせずに,候補項目の順列を直接生成する新しいフレームワークであるSet-To-Arrangement Ranking (STARank)を提案する。
論文 参考訳(メタデータ) (2023-08-05T12:22:26Z) - Learning to Rank when Grades Matter [11.981942948477236]
グレードラベルは、現実世界の学習 to ランクのアプリケーションではユビキタスである。
従来の学習からランクまでの技術は、実際の成績を予測することを無視する。
ランクとグレードの予測を協調的に最適化する多目的定式化を提案する。
論文 参考訳(メタデータ) (2023-06-14T17:30:02Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - T5Score: Discriminative Fine-tuning of Generative Evaluation Metrics [94.69907794006826]
我々は、現在利用可能なデータから、教師なし信号と教師なし信号の両方を用いて、両方の世界のベストを結合するフレームワークを提案する。
このアイデアを,mT5をバックボーンとするトレーニング信号を使用するメトリックであるT5Scoreをトレーニングすることで,運用する。
T5Scoreは、セグメントレベルの既存のトップスコアメトリクスに対して、すべてのデータセットで最高のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-12T06:29:04Z) - Differentiable Top-k Classification Learning [29.75063301688965]
単一 k を使わずに、複数の k に対してモデルを同時に最適化する。
緩和kは, 上位5の精度向上だけでなく, 上位1の精度向上につながることがわかった。
論文 参考訳(メタデータ) (2022-06-15T04:13:59Z) - PiRank: Learning To Rank via Differentiable Sorting [85.28916333414145]
ランク付けのための新しい分類可能なサロゲートであるPiRankを提案する。
ピランクは所望の指標をゼロ温度の限界で正確に回収する。
論文 参考訳(メタデータ) (2020-12-12T05:07:36Z) - Rank over Class: The Untapped Potential of Ranking in Natural Language
Processing [8.637110868126546]
我々は、現在分類を用いて対処されている多くのタスクが、実際には分類モールドに切り替わっていると論じる。
本稿では,一対のテキストシーケンスの表現を生成するトランスフォーマーネットワークからなる新しいエンドツーエンドランキング手法を提案する。
重く歪んだ感情分析データセットの実験では、ランキング結果を分類ラベルに変換すると、最先端のテキスト分類よりも約22%改善する。
論文 参考訳(メタデータ) (2020-09-10T22:18:57Z) - Document Ranking with a Pretrained Sequence-to-Sequence Model [56.44269917346376]
関連ラベルを「ターゲット語」として生成するためにシーケンス・ツー・シーケンス・モデルをどのように訓練するかを示す。
提案手法は,データポーラ方式におけるエンコーダのみのモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-03-14T22:29:50Z) - Deep Attentive Ranking Networks for Learning to Order Sentences [31.70737249775046]
本稿では,1段落の文の順序付けを学習するための注意に基づく格付けフレームワークを提案する。
本フレームワークは,双方向文エンコーダと自己認識型トランスフォーマネットワーク上に構築されている。
ポイントワイド、ペアワイド、リストワイドランキングなど、さまざまなランキングベースの損失関数を使用したシームレスなトレーニングを可能にする。
論文 参考訳(メタデータ) (2019-12-31T19:54:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。