論文の概要: Traditional IR rivals neural models on the MS MARCO Document Ranking
Leaderboard
- arxiv url: http://arxiv.org/abs/2012.08020v3
- Date: Wed, 17 Mar 2021 18:20:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 05:17:57.053846
- Title: Traditional IR rivals neural models on the MS MARCO Document Ranking
Leaderboard
- Title(参考訳): 従来のIRはMS MARCO Document Ranking Leaderboardでニューラルモデルと競合する
- Authors: Leonid Boytsov
- Abstract要約: この文書はMS MARCO文書ランキングのリーダーボードでMRR@100を0.298に等しい達成した従来のIRシステムを説明します。
結果を再現するソフトウェアとデータを提供します。
- 参考スコア(独自算出の注目度): 0.11421942894219898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This short document describes a traditional IR system that achieved MRR@100
equal to 0.298 on the MS MARCO Document Ranking leaderboard (on 2020-12-06).
Although inferior to most BERT-based models, it outperformed several neural
runs (as well as all non-neural ones), including two submissions that used a
large pretrained Transformer model for re-ranking. We provide software and data
to reproduce our results.
- Abstract(参考訳): この短い文書は、MS MARCO Document Ranking Leaderboard(2020-12-06)でMRR@100を0.298と同等に達成した伝統的なIRシステムについて記述している。
多くのBERTベースのモデルよりも劣っていたが、いくつかのニューラルラン(と全ての非ニューラルラン)を上回り、その中には大きな事前訓練されたトランスフォーマーモデルを使用した2つのサブミッションが含まれていた。
結果を再現するソフトウェアとデータを提供します。
関連論文リスト
- Samsung R&D Institute Philippines at WMT 2023 [0.6275792799021923]
本稿では,Samsung R&D Institute Philippines が WMT 2023 General Translation Task に提出した制約MTシステムについて述べる。
我々のシステムはTransformerベースのシーケンス・ツー・シーケンス・モデルで構成されており、これらはベストプラクティスの混合で訓練されている。
論文 参考訳(メタデータ) (2023-10-25T03:10:52Z) - CoMAE: Single Model Hybrid Pre-training on Small-Scale RGB-D Datasets [50.6643933702394]
本稿では,RGBと深度変調のための単一モデル自己教師型ハイブリッド事前学習フレームワークについて述べる。
我々のCoMAEは、コントラスト学習とマスク画像モデリングという2つの一般的な自己教師付き表現学習アルゴリズムを統合するためのカリキュラム学習戦略を提示している。
論文 参考訳(メタデータ) (2023-02-13T07:09:45Z) - LEAD: Liberal Feature-based Distillation for Dense Retrieval [67.48820723639601]
知識蒸留は、強い教師モデルから比較的弱い学生モデルに知識を伝達するためにしばしば用いられる。
従来のメソッドにはレスポンスベースのメソッドとフィーチャーベースのメソッドが含まれる。
本稿では,リベラルな特徴量に基づく蒸留法(LEAD)を提案する。
論文 参考訳(メタデータ) (2022-12-10T06:30:54Z) - ProcTHOR: Large-Scale Embodied AI Using Procedural Generation [55.485985317538194]
ProcTHORは、Embodied AI環境の手続き的生成のためのフレームワークである。
ナビゲーション、アレンジメント、アーム操作のための6つの具体化されたAIベンチマークに対して、最先端の結果を実証する。
論文 参考訳(メタデータ) (2022-06-14T17:09:35Z) - RoBLEURT Submission for the WMT2021 Metrics Task [72.26898579202076]
本稿では,共有メトリクスタスクであるRoBLEURTについて紹介する。
我々のモデルは10対の英語言語対のうち8対でWMT 2020の人間のアノテーションと最先端の相関に達する。
論文 参考訳(メタデータ) (2022-04-28T08:49:40Z) - A Multi-Document Coverage Reward for RELAXed Multi-Document
Summarization [11.02198476454955]
本稿では,MDSの基準値と入力文書のカバレッジのバランスをとる報酬を付与したMDSベースラインの微調整を提案する。
Multi-NewsおよびWCEP MDSデータセットに対する実験結果から、ベースライン上での平均ROUGEスコアが+0.95pp、METEORスコアが+3.17ppと大幅に改善された。
論文 参考訳(メタデータ) (2022-03-06T07:33:01Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - Dual-Teacher Class-Incremental Learning With Data-Free Generative Replay [49.691610143011566]
クラスインクリメンタルラーニング(CIL)のための2つの新しい知識伝達手法を提案する。
まず,データフリーな生成リプレイ(DF-GR)を提案し,生成モデルからの合成サンプルを用いてCILの破滅的忘れを緩和する。
第2に,2人の教師から1人の生徒に知識蒸留を行うための2つの教員情報蒸留(DT-ID)を導入する。
論文 参考訳(メタデータ) (2021-06-17T22:13:15Z) - Exploring Classic and Neural Lexical Translation Models for Information
Retrieval: Interpretability, Effectiveness, and Efficiency Benefits [0.11421942894219898]
ニューラルネットワークモデル1をアグリゲータ層として,コンテキストフリーあるいはコンテキスト化されたクエリ/ドキュメント埋め込みに適用する。
BERTをベースとしたコンテキスト型埋め込み上に,解釈可能なニューラルモデル1層を追加すると,精度や効率が低下しないことを示す。
私たちは、2020年末にMS MARCOドキュメントランキングリーダーボードで最高のニューラルおよび非ニューラルランを生産しました。
論文 参考訳(メタデータ) (2021-02-12T23:21:55Z) - ERNIE at SemEval-2020 Task 10: Learning Word Emphasis Selection by
Pre-trained Language Model [18.41476971318978]
本稿では,SemEval-2020 Task 10: Emphasis Selection for Written Text in Visual Mediaにおいて,ERNIE Teamによって設計されたシステムについて述べる。
教師なし事前学習モデルを活用し、これらのモデルをタスクで微調整します。
我々の最良のモデルは0.823の最高スコアを達成し、あらゆる種類の指標で第1位となる。
論文 参考訳(メタデータ) (2020-09-08T12:51:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。