論文の概要: BM25 Query Augmentation Learned End-to-End
- arxiv url: http://arxiv.org/abs/2305.14087v1
- Date: Tue, 23 May 2023 14:11:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 15:51:11.719467
- Title: BM25 Query Augmentation Learned End-to-End
- Title(参考訳): エンドツーエンドのBM25クエリ拡張
- Authors: Xiaoyin Chen and Sam Wiseman
- Abstract要約: 拡張学習のアプローチと、エンドツーエンドへの再重み付けを提案する。
速度を保ちながらBM25よりも性能が向上することが確認された。
- 参考スコア(独自算出の注目度): 20.89707907735832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given BM25's enduring competitiveness as an information retrieval baseline,
we investigate to what extent it can be even further improved by augmenting and
re-weighting its sparse query-vector representation. We propose an approach to
learning an augmentation and a re-weighting end-to-end, and we find that our
approach improves performance over BM25 while retaining its speed. We
furthermore find that the learned augmentations and re-weightings transfer well
to unseen datasets.
- Abstract(参考訳): 情報検索ベースラインとしてのbm25の持続的な競争力を考慮し,そのスパースなクエリベクトル表現の強化と再重み付けにより,さらにどの程度改善できるか検討する。
本稿では,拡張学習と終端重み付け学習のアプローチを提案し,その速度を保ちながらBM25よりも性能が向上することが確認された。
さらに、学習された拡張と再重み付けは、見当たらないデータセットにうまく転送される。
関連論文リスト
- Can Query Expansion Improve Generalization of Strong Cross-Encoder Rankers? [72.42500059688396]
本稿では,拡張されたクエリのランク付け結果を融合により高速化し,エンジニアリングの迅速化と集約を行うことにより,強力なニューラルネットワークローカの一般化を向上できることを示す。
BEIR と TREC Deep Learning の実験では,MonoT5 と RankT5 の nDCG@10 スコアがこれらのステップに従って改善された。
論文 参考訳(メタデータ) (2023-11-15T18:11:41Z) - Surface-Based Retrieval Reduces Perplexity of Retrieval-Augmented
Language Models [1.0552465253379135]
本研究では,現状のRetroモデルについて検討し,その性能向上が表面レベルの類似性によってよりよく説明できることを示した。
これに触発されて、私たちはRetroのセマンティック検索をBM25に基づく表面レベルの手法に置き換え、パープレキシティの大幅な低減を実現した。
論文 参考訳(メタデータ) (2023-05-25T16:56:26Z) - Improving Out-of-Distribution Generalization of Neural Rerankers with
Contextualized Late Interaction [52.63663547523033]
マルチベクトルの最も単純な形式である後期相互作用は、[]ベクトルのみを使用して類似度スコアを計算する神経リランカにも役立ちます。
異なるモデルサイズと多様な性質の第一段階のレトリバーに一貫性があることが示される。
論文 参考訳(メタデータ) (2023-02-13T18:42:17Z) - Local Magnification for Data and Feature Augmentation [53.04028225837681]
LOMA(Local Magnification)と呼ばれる,実装が容易かつモデルフリーなデータ拡張手法を提案する。
LOMAは、画像の局所領域をランダムに拡大することにより、追加のトレーニングデータを生成する。
実験の結果,提案するLOMAと標準データ拡張を組み合わせることで,画像分類や物体検出の性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-11-15T02:51:59Z) - Improving information retention in large scale online continual learning [99.73847522194549]
オンライン連続学習は、既存の知識を維持しながら、新しいデータに効率的に適応することを目的としている。
最近の研究は、リプレイバッファが無制限であっても、大規模なOCLでは情報保持が問題であり続けていることを示唆している。
非定常目標に対する最適化を改善するため,移動平均の手法群を提案する。
論文 参考訳(メタデータ) (2022-10-12T16:59:43Z) - Retrieval Augmentation for T5 Re-ranker using External Sources [71.71619813276027]
2つの外部コーパスから取得した高品質な情報を用いて、T5ベースのリランカを強化する方法について検討する。
提案手法は,T5ベースのリランカの検索能力向上を実証的に実証するものである。
論文 参考訳(メタデータ) (2022-10-11T04:54:19Z) - Establishing Strong Baselines for TripClick Health Retrieval [7.911344873839031]
我々は最近リリースされたTripClickヘルス・アドホック検索コレクションに対して,トランスフォーマーをベースとした強力なリグレードと高密度検索ベースラインを提示する。
従来のベースラインでは達成できなかったTripClickのリグレードタスクにおいて,BM25よりも大幅に向上した。
論文 参考訳(メタデータ) (2022-01-02T15:03:19Z) - Untapped Potential of Data Augmentation: A Domain Generalization
Viewpoint [14.360826930970765]
本研究では,拡張に基づく手法の領域一般化の観点から考察する。
最先端の強化手法による探索は、学習された表現が訓練中に使用する歪みに対してさえ頑健でないことを示す。
論文 参考訳(メタデータ) (2020-07-09T09:40:54Z) - Data Augmenting Contrastive Learning of Speech Representations in the
Time Domain [92.50459322938528]
時間領域データ拡張ライブラリであるWavAugmentを紹介します。
また, ピッチ修正, 付加音, 残響の組合せによってCPCの性能が著しく向上することが判明した。
また、時間領域データの増大は、下流の限られた超音素分類タスクを12~15%の確率で改善することを示した。
論文 参考訳(メタデータ) (2020-07-02T09:59:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。