論文の概要: Hybrid Retrieval and Multi-stage Text Ranking Solution at TREC 2022 Deep
Learning Track
- arxiv url: http://arxiv.org/abs/2308.12039v1
- Date: Wed, 23 Aug 2023 09:56:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 14:36:10.230892
- Title: Hybrid Retrieval and Multi-stage Text Ranking Solution at TREC 2022 Deep
Learning Track
- Title(参考訳): TREC 2022ディープラーニングトラックにおけるハイブリッド検索と多段階テキストランキングソリューション
- Authors: Guangwei Xu, Yangzhao Zhang, Longhui Zhang, Dingkun Long, Pengjun Xie,
Ruijie Guo
- Abstract要約: 本稿では,ハイブリッドテキスト検索と多段階テキストランキング法について解説する。
ランキング段階では,大規模な事前学習言語モデルに基づく対話型ランキングモデルに加えて,軽量なサブランクモジュールも提案する。
本モデルでは, 通過ランキングと文書ランキングの試験セットにおいて, それぞれ第1位と第4位を達成している。
- 参考スコア(独自算出の注目度): 22.81602641419962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale text retrieval technology has been widely used in various
practical business scenarios. This paper presents our systems for the TREC 2022
Deep Learning Track. We explain the hybrid text retrieval and multi-stage text
ranking method adopted in our solution. The retrieval stage combined the two
structures of traditional sparse retrieval and neural dense retrieval. In the
ranking stage, in addition to the full interaction-based ranking model built on
large pre-trained language model, we also proposes a lightweight sub-ranking
module to further enhance the final text ranking performance. Evaluation
results demonstrate the effectiveness of our proposed approach. Our models
achieve the 1st and 4th rank on the test set of passage ranking and document
ranking respectively.
- Abstract(参考訳): 大規模テキスト検索技術は様々なビジネスシナリオで広く利用されている。
本稿では,TREC 2022 Deep Learning Trackのシステムについて述べる。
本稿では,ハイブリッドテキスト検索と多段階テキストランキング法について説明する。
検索段階は従来のスパース検索と神経密度検索の2つの構造を組み合わせた。
ランキング段階では,大型事前学習言語モデルに基づく完全な対話型ランキングモデルに加えて,最終的なテキストランキング性能をさらに高めるための軽量サブ階層モジュールも提案する。
評価の結果,提案手法の有効性が示された。
本モデルでは, 通過ランキングと文書ランキングの試験セットにおいて, それぞれ第1位と第4位を達成している。
関連論文リスト
- What Differentiates Educational Literature? A Multimodal Fusion Approach of Transformers and Computational Linguistics [0.7342677574855649]
英語カリキュラムへの新しい文学の統合は、様々な教室のニーズに対して、読みやすさとテキストの適応を迅速に評価するスケーラブルなツールがしばしば欠如しているため、依然として課題である。
本研究は,変圧器を用いたテキスト分類と言語的特徴分析を組み合わせたマルチモーダル手法により,このギャップに対処することを提案する。
提案手法は、ステークホルダーが対象とするWebアプリケーションにカプセル化され、非技術ステークホルダーが、テキストの複雑さ、読みやすさ、カリキュラムのアライメント、学習年齢範囲に関するリアルタイムな洞察にアクセスできるようにする。
論文 参考訳(メタデータ) (2024-11-26T17:01:27Z) - mGTE: Generalized Long-Context Text Representation and Reranking Models for Multilingual Text Retrieval [67.50604814528553]
まず、RoPEとアンパディングで強化されたテキストエンコーダを導入し、ネイティブの8192-tokenコンテキストで事前トレーニングを行った。
そして、コントラスト学習によりハイブリッドTRMとクロスエンコーダ・リランカを構築する。
論文 参考訳(メタデータ) (2024-07-29T03:12:28Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z) - HLATR: Enhance Multi-stage Text Retrieval with Hybrid List Aware
Transformer Reranking [16.592276887533714]
HLATR(Hybrid List Aware Transformer Re rank)は、検索機能とステージ機能の両方を組み込んだ後継モジュールである。
HLATRは軽量で、既存のテキスト検索システムと容易に並列化できる。
2つの大規模テキスト検索データセットの実証実験により、HLATRは既存の多段階テキスト検索手法のランク付け性能を効率的に向上できることが示された。
論文 参考訳(メタデータ) (2022-05-21T11:38:33Z) - PASH at TREC 2021 Deep Learning Track: Generative Enhanced Model for Multi-stage Ranking [20.260222175405215]
本稿では,TREC 2021 Deep Learning TrackにおけるPASHの参加について述べる。
リコール段階ではスパース法と高密度検索法を組み合わせたスキームを採用する。
多段階ランキングフェーズでは、ポイントワイドとペアワイドランキング戦略が使用される。
論文 参考訳(メタデータ) (2022-05-18T04:38:15Z) - Curriculum Learning for Dense Retrieval Distillation [20.25741148622744]
CL-DRDと呼ばれる総合的なカリキュラム学習に基づく最適化フレームワークを提案する。
CL-DRDは、リグレード(教師)モデルによって生成されたトレーニングデータの難易度を制御する。
3つのパブリックパス検索データセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-04-28T17:42:21Z) - Pretrained Transformers for Text Ranking: BERT and Beyond [53.83210899683987]
このサーベイは、トランスフォーマーとして知られるニューラルネットワークアーキテクチャによるテキストランキングの概要を提供する。
トランスフォーマーと自己教師型事前学習の組み合わせは、自然言語処理のパラダイムシフトの原因となっている。
論文 参考訳(メタデータ) (2020-10-13T15:20:32Z) - DeText: A Deep Text Ranking Framework with BERT [20.26046057139722]
本稿では,BERTをベースとした効率的なランキングモデルの構築方法について検討する。
ソリューションはさらに、オープンソースの一般的なランキングフレームワークであるDeTextにも拡張されている。
論文 参考訳(メタデータ) (2020-08-06T05:12:11Z) - A Survey on Text Classification: From Shallow to Deep Learning [83.47804123133719]
過去10年は、ディープラーニングが前例のない成功を収めたために、この分野の研究が急増している。
本稿では,1961年から2021年までの最先端のアプローチを見直し,そのギャップを埋める。
特徴抽出と分類に使用されるテキストとモデルに基づいて,テキスト分類のための分類を作成する。
論文 参考訳(メタデータ) (2020-08-02T00:09:03Z) - Deep Learning Based Text Classification: A Comprehensive Review [75.8403533775179]
本稿では,近年開発されたテキスト分類のための150以上のディープラーニングモデルについてレビューする。
また、テキスト分類に広く使われている40以上の一般的なデータセットの要約も提供する。
論文 参考訳(メタデータ) (2020-04-06T02:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。