論文の概要: Traditional IR rivals neural models on the MS MARCO Document Ranking
Leaderboard
- arxiv url: http://arxiv.org/abs/2012.08020v3
- Date: Wed, 17 Mar 2021 18:20:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 05:17:57.053846
- Title: Traditional IR rivals neural models on the MS MARCO Document Ranking
Leaderboard
- Title(参考訳): 従来のIRはMS MARCO Document Ranking Leaderboardでニューラルモデルと競合する
- Authors: Leonid Boytsov
- Abstract要約: この文書はMS MARCO文書ランキングのリーダーボードでMRR@100を0.298に等しい達成した従来のIRシステムを説明します。
結果を再現するソフトウェアとデータを提供します。
- 参考スコア(独自算出の注目度): 0.11421942894219898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This short document describes a traditional IR system that achieved MRR@100
equal to 0.298 on the MS MARCO Document Ranking leaderboard (on 2020-12-06).
Although inferior to most BERT-based models, it outperformed several neural
runs (as well as all non-neural ones), including two submissions that used a
large pretrained Transformer model for re-ranking. We provide software and data
to reproduce our results.
- Abstract(参考訳): この短い文書は、MS MARCO Document Ranking Leaderboard(2020-12-06)でMRR@100を0.298と同等に達成した伝統的なIRシステムについて記述している。
多くのBERTベースのモデルよりも劣っていたが、いくつかのニューラルラン(と全ての非ニューラルラン)を上回り、その中には大きな事前訓練されたトランスフォーマーモデルを使用した2つのサブミッションが含まれていた。
結果を再現するソフトウェアとデータを提供します。
関連論文リスト
- MAIR: A Massive Benchmark for Evaluating Instructed Retrieval [39.22381869406682]
最近の情報検索(IR)モデルは、大量のデータセットとタスクに基づいて事前訓練され、命令調整される。
MAIR(Massive Instructed Retrieval Benchmark)は6つの領域にわたる126の異なるIRタスクを含む異種IRベンチマークである。
我々は、最先端の命令調整型テキスト埋め込みモデルと再分類モデルのベンチマークを行う。
論文 参考訳(メタデータ) (2024-10-14T03:26:51Z) - Prompts as Auto-Optimized Training Hyperparameters: Training Best-in-Class IR Models from Scratch with 10 Gold Labels [35.78121449099899]
我々は,10個のゴールドレバレンスラベルを持つ小規模(100Mパラメータ未満)のニューラル情報検索モデルを訓練する手法を開発した。
RankLLamaは100K以上のラベルでトレーニングされた7Bパラメータモデルである。
論文 参考訳(メタデータ) (2024-06-17T16:25:55Z) - A Review of Modern Recommender Systems Using Generative Models (Gen-RecSys) [57.30228361181045]
この調査は、ジェネレーティブモデル(Gen-RecSys)を用いたレコメンデーションシステムにおける重要な進歩を結びつける。
対話駆動生成モデル、自然言語レコメンデーションのための大規模言語モデル(LLM)とテキストデータの使用、RSにおける画像やビデオの生成と処理のためのマルチモーダルモデルの統合。
我々の研究は、Gen-RecSysの影響と害を評価するために必要なパラダイムを強調し、オープンな課題を特定します。
論文 参考訳(メタデータ) (2024-03-31T06:57:57Z) - Samsung R&D Institute Philippines at WMT 2023 [0.6275792799021923]
本稿では,Samsung R&D Institute Philippines が WMT 2023 General Translation Task に提出した制約MTシステムについて述べる。
我々のシステムはTransformerベースのシーケンス・ツー・シーケンス・モデルで構成されており、これらはベストプラクティスの混合で訓練されている。
論文 参考訳(メタデータ) (2023-10-25T03:10:52Z) - CoMAE: Single Model Hybrid Pre-training on Small-Scale RGB-D Datasets [50.6643933702394]
本稿では,RGBと深度変調のための単一モデル自己教師型ハイブリッド事前学習フレームワークについて述べる。
我々のCoMAEは、コントラスト学習とマスク画像モデリングという2つの一般的な自己教師付き表現学習アルゴリズムを統合するためのカリキュラム学習戦略を提示している。
論文 参考訳(メタデータ) (2023-02-13T07:09:45Z) - LEAD: Liberal Feature-based Distillation for Dense Retrieval [67.48820723639601]
知識蒸留は、強い教師モデルから比較的弱い学生モデルに知識を伝達するためにしばしば用いられる。
従来のメソッドにはレスポンスベースのメソッドとフィーチャーベースのメソッドが含まれる。
本稿では,リベラルな特徴量に基づく蒸留法(LEAD)を提案する。
論文 参考訳(メタデータ) (2022-12-10T06:30:54Z) - Understanding Performance of Long-Document Ranking Models through Comprehensive Evaluation and Leaderboarding [12.706825602291266]
我々は、長い文書のランク付けのためのTransformerモデルを評価し、それらを単純なFirstPベースラインと比較した。
MS MARCO, TREC DLs, Robust04 では FirstP は NDCG と MRR で 5% 以上の性能を示した。
これは、モデルが長いコンテキストを処理できないことによるものではなく、関連するパスの位置バイアスによるものであると推測した。
論文 参考訳(メタデータ) (2022-07-04T08:54:43Z) - ProcTHOR: Large-Scale Embodied AI Using Procedural Generation [55.485985317538194]
ProcTHORは、Embodied AI環境の手続き的生成のためのフレームワークである。
ナビゲーション、アレンジメント、アーム操作のための6つの具体化されたAIベンチマークに対して、最先端の結果を実証する。
論文 参考訳(メタデータ) (2022-06-14T17:09:35Z) - RoBLEURT Submission for the WMT2021 Metrics Task [72.26898579202076]
本稿では,共有メトリクスタスクであるRoBLEURTについて紹介する。
我々のモデルは10対の英語言語対のうち8対でWMT 2020の人間のアノテーションと最先端の相関に達する。
論文 参考訳(メタデータ) (2022-04-28T08:49:40Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。