論文の概要: Overview of the TREC 2020 deep learning track
- arxiv url: http://arxiv.org/abs/2102.07662v1
- Date: Mon, 15 Feb 2021 16:47:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 16:16:07.544482
- Title: Overview of the TREC 2020 deep learning track
- Title(参考訳): TREC 2020深層学習トラックの概要
- Authors: Nick Craswell, Bhaskar Mitra, Emine Yilmaz and Daniel Campos
- Abstract要約: 今年は文書検索タスクとパス検索タスクがあり、それぞれに何十万もの人手によるトレーニングクエリがあります。
我々は,シングルショットTRECスタイルの評価を用いて評価を行い,大規模データを利用できる場合にどのランキング手法が最適かを示す。
今年はさらに、BERTスタイルの事前トレーニングを持つランク付け者が、大規模なデータ体制における他のランク付けよりも優れているという証拠があります。
- 参考スコア(独自算出の注目度): 30.531644711518414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This is the second year of the TREC Deep Learning Track, with the goal of
studying ad hoc ranking in the large training data regime. We again have a
document retrieval task and a passage retrieval task, each with hundreds of
thousands of human-labeled training queries. We evaluate using single-shot
TREC-style evaluation, to give us a picture of which ranking methods work best
when large data is available, with much more comprehensive relevance labeling
on the small number of test queries. This year we have further evidence that
rankers with BERT-style pretraining outperform other rankers in the large data
regime.
- Abstract(参考訳): TREC Deep Learning Trackの2年目であり、大規模なトレーニングデータ体制におけるアドホックランキングの研究を目標としている。
また、文書検索タスクと通過検索タスクがあり、それぞれに何十万もの人手によるトレーニングクエリがあります。
我々は,シングルショットTRECスタイルの評価を用いて,大規模データを利用できる場合にどのランキング手法が最適かを示すとともに,少数のテストクエリに対してより包括的な関連付けを行う。
今年はさらに、BERTスタイルの事前トレーニングを持つランク付け者が、大規模なデータ体制における他のランク付けよりも優れているという証拠があります。
関連論文リスト
- Overview of the TREC 2023 Product Product Search Track [70.56592126043546]
今年はTREC製品サーチトラックの最初の年だ。
焦点は再利用可能なコレクションの作成であった。
我々は、コンテキストメタデータを含む新しい製品検索コーパスを活用している。
論文 参考訳(メタデータ) (2023-11-14T02:25:18Z) - Hybrid Retrieval and Multi-stage Text Ranking Solution at TREC 2022 Deep
Learning Track [22.81602641419962]
本稿では,ハイブリッドテキスト検索と多段階テキストランキング法について解説する。
ランキング段階では,大規模な事前学習言語モデルに基づく対話型ランキングモデルに加えて,軽量なサブランクモジュールも提案する。
本モデルでは, 通過ランキングと文書ランキングの試験セットにおいて, それぞれ第1位と第4位を達成している。
論文 参考訳(メタデータ) (2023-08-23T09:56:59Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - PASH at TREC 2021 Deep Learning Track: Generative Enhanced Model for Multi-stage Ranking [20.260222175405215]
本稿では,TREC 2021 Deep Learning TrackにおけるPASHの参加について述べる。
リコール段階ではスパース法と高密度検索法を組み合わせたスキームを採用する。
多段階ランキングフェーズでは、ポイントワイドとペアワイドランキング戦略が使用される。
論文 参考訳(メタデータ) (2022-05-18T04:38:15Z) - LaPraDoR: Unsupervised Pretrained Dense Retriever for Zero-Shot Text
Retrieval [55.097573036580066]
実験結果から,LaPraDoRは教師付き高密度検索モデルと比較して最先端の性能が得られることがわかった。
再ランクと比較すると,1ミリ秒 (22.5倍高速) でレキシコン強化手法を動作させることができるが,性能は良好である。
論文 参考訳(メタデータ) (2022-03-11T18:53:12Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z) - Self-training Improves Pre-training for Natural Language Understanding [63.78927366363178]
我々は、半教師付き学習を通じてラベルのないデータを活用する別の方法として、自己学習について研究する。
本稿では,ラベル付きデータからタスク固有のクエリの埋め込みを計算するデータ拡張手法であるSentAugmentを紹介する。
我々のアプローチは、標準的なテキスト分類ベンチマークで最大2.6%の改善を達成し、スケーラブルで効果的な自己学習に繋がる。
論文 参考訳(メタデータ) (2020-10-05T17:52:25Z) - Overview of the TREC 2019 deep learning track [36.23357487158591]
Deep Learning TrackはTREC 2019の新しいトラックで、大規模データ体制におけるアドホックランキングの研究を目的としている。
大規模な人間ラベルのトレーニングセットを備えた最初のトラックであり、2つのタスクに対応する2つのセットを導入している。
今年、15のグループは、ディープラーニング、トランスファーラーニング、伝統的なIRランキング手法の様々な組み合わせを使用して、合計75のランを提出した。
論文 参考訳(メタデータ) (2020-03-17T17:12:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。