論文の概要: Generative Relevance Feedback and Convergence of Adaptive Re-Ranking: University of Glasgow Terrier Team at TREC DL 2023
- arxiv url: http://arxiv.org/abs/2405.01122v1
- Date: Thu, 02 May 2024 09:36:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 01:28:28.990594
- Title: Generative Relevance Feedback and Convergence of Adaptive Re-Ranking: University of Glasgow Terrier Team at TREC DL 2023
- Title(参考訳): 適応的再リンクの世代的関連性フィードバックと収束性: TREC DL 2023 グラスゴー大学テリアチーム
- Authors: Andrew Parry, Thomas Jaenich, Sean MacAvaney, Iadh Ounis,
- Abstract要約: 本稿では,TREC 2023 Deep Learning Trackへの参加について述べる。
我々は、ゼロショットと擬似関連の両方のフィードバック設定において、大きな言語モデルから生成的関連性フィードバックを適用するランを提出した。
生成的クエリ再構成の適用により,性能が向上した。
- 参考スコア(独自算出の注目度): 20.95345024616033
- License:
- Abstract: This paper describes our participation in the TREC 2023 Deep Learning Track. We submitted runs that apply generative relevance feedback from a large language model in both a zero-shot and pseudo-relevance feedback setting over two sparse retrieval approaches, namely BM25 and SPLADE. We couple this first stage with adaptive re-ranking over a BM25 corpus graph scored using a monoELECTRA cross-encoder. We investigate the efficacy of these generative approaches for different query types in first-stage retrieval. In re-ranking, we investigate operating points of adaptive re-ranking with different first stages to find the point in graph traversal where the first stage no longer has an effect on the performance of the overall retrieval pipeline. We find some performance gains from the application of generative query reformulation. However, our strongest run in terms of P@10 and nDCG@10 applied both adaptive re-ranking and generative pseudo-relevance feedback, namely uogtr_b_grf_e_gb.
- Abstract(参考訳): 本稿では,TREC 2023 Deep Learning Trackへの参加について述べる。
我々は、BM25とSPLADEという2つのスパース検索手法を用いて、ゼロショットおよび擬似関連フィードバック設定において、大規模言語モデルから生成的関連性フィードバックを適用するランを提出した。
この第1段階を、モノECTRAクロスエンコーダを用いて、BM25コーパスグラフに適応的に再ランク付けした。
本研究は,第1段階検索におけるクエリタイプの違いに対して,これらの生成手法の有効性について検討する。
再ランク付けでは、各第1段階の適応的再ランクの操作点を調べ、第1段階が検索パイプライン全体の性能にもはや影響を与えないグラフトラバースの点を求める。
生成的クエリ再構成の適用により,性能が向上した。
しかし P@10 と nDCG@10 では,適応的再評価と擬似関連フィードバック,すなわち uogtr_b_grf_e_gb が最強であった。
関連論文リスト
- Chain-of-Retrieval Augmented Generation [72.06205327186069]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - An Early FIRST Reproduction and Improvements to Single-Token Decoding for Fast Listwise Reranking [50.81324768683995]
FIRSTは、学習からランクへの目的を統合し、最初の生成されたトークンのみのロジットを活用する新しいアプローチである。
我々は、FIRSTの評価をTRECディープラーニングデータセット(DL19-22)に拡張し、様々な領域でその堅牢性を検証する。
我々の実験は、単一トークンの高速リランクは、ドメイン外リランクの品質を損なうものではないことを確認した。
論文 参考訳(メタデータ) (2024-11-08T12:08:17Z) - Sequencing Matters: A Generate-Retrieve-Generate Model for Building
Conversational Agents [9.191944519634111]
Georgetown InfoSense GroupはTREC iKAT 2023の課題を解決するために活動している。
提案手法は, 各カット数, 総合成功率において, nDCG において高い性能を示した。
我々のソリューションは、初期回答にLarge Language Models (LLMs) を用いること、BM25による回答基盤、ロジスティック回帰による通過品質フィルタリング、LLMによる回答生成である。
論文 参考訳(メタデータ) (2023-11-16T02:37:58Z) - How Does Generative Retrieval Scale to Millions of Passages? [68.98628807288972]
各種コーパス尺度における生成的検索手法の実証的研究を行った。
我々は8.8Mパスのコーパスで数百万のパスに生成検索をスケールし、モデルサイズを最大11Bパラメータまで評価する。
生成的検索は、小さなコーパス上の最先端のデュアルエンコーダと競合するが、数百万のパスへのスケーリングは依然として重要で未解決の課題である。
論文 参考訳(メタデータ) (2023-05-19T17:33:38Z) - PoseRAC: Pose Saliency Transformer for Repetitive Action Counting [56.34379680390869]
冗長なフレームではなく,2つのサレントポーズのみを用いて,各アクションを効率よく表現するPose Saliency Representationを導入する。
また,この表現に基づいて,最先端のパフォーマンスを実現するPoseRACについても紹介する。
当社の軽量モデルは非常に効率的で、GPUでのトレーニングに20分しか必要とせず、従来の方法に比べて10倍近い速さで推論します。
論文 参考訳(メタデータ) (2023-03-15T08:51:17Z) - HYRR: Hybrid Infused Reranking for Passage Retrieval [18.537666294601458]
Hybrid Infused Re rank for Passages Retrievalは、BM25とニューラル検索モデルのハイブリッドに基づいて、リランカをトレーニングするためのフレームワークである。
我々は,MS MARCOとBEIRを用いたゼロショット検索タスクを用いた教師付きパス検索タスクの評価を行った。
論文 参考訳(メタデータ) (2022-12-20T18:44:21Z) - Incorporating Relevance Feedback for Information-Seeking Retrieval using
Few-Shot Document Re-Ranking [56.80065604034095]
我々は,クエリとユーザが関連すると考えるドキュメントとの類似性に基づいて,文書を再参照するkNNアプローチを提案する。
異なる統合戦略を評価するため、既存の4つの情報検索データセットを関連フィードバックシナリオに変換する。
論文 参考訳(メタデータ) (2022-10-19T16:19:37Z) - LaPraDoR: Unsupervised Pretrained Dense Retriever for Zero-Shot Text
Retrieval [55.097573036580066]
実験結果から,LaPraDoRは教師付き高密度検索モデルと比較して最先端の性能が得られることがわかった。
再ランクと比較すると,1ミリ秒 (22.5倍高速) でレキシコン強化手法を動作させることができるが,性能は良好である。
論文 参考訳(メタデータ) (2022-03-11T18:53:12Z) - SPLADE v2: Sparse Lexical and Expansion Model for Information Retrieval [11.38022203865326]
SPLADEモデルは、最先端の高密度かつスパースなアプローチに関して、高度にスパースな表現と競争結果を提供する。
我々は、プール機構を変更し、文書拡張のみに基づいてモデルをベンチマークし、蒸留で訓練されたモデルを導入する。
全体として、SPLADEはTREC DL 2019のNDCG@10で9ドル以上のゲインで大幅に改善され、BEIRベンチマークで最先端の結果が得られた。
論文 参考訳(メタデータ) (2021-09-21T10:43:42Z) - CoRT: Complementary Rankings from Transformers [8.37609145576126]
CoRTは、事前訓練された言語モデルからコンテキスト表現を活用する、単純なニューラルネットワークファーストステージランキングモデルである。
BM25を補うことで,CoRTは候補者のリコールを著しく向上させることを示した。
さらに,CoRTを用いた経路探索は驚くほど低レイテンシで実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-10-20T13:28:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。