論文の概要: RetroMAE-2: Duplex Masked Auto-Encoder For Pre-Training
Retrieval-Oriented Language Models
- arxiv url: http://arxiv.org/abs/2305.02564v1
- Date: Thu, 4 May 2023 05:37:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 16:57:50.695034
- Title: RetroMAE-2: Duplex Masked Auto-Encoder For Pre-Training
Retrieval-Oriented Language Models
- Title(参考訳): RetroMAE-2: 事前学習型検索言語モデルのための複写型自動エンコーダ
- Authors: Shitao Xiao, Zheng Liu, Yingxia Shao, Zhao Cao
- Abstract要約: 本稿では,DupMAE(Duplex Masked Auto-Encoder)と呼ばれる新しい事前学習手法を提案する。
事前訓練されたモデルのすべてのコンテキスト化埋め込みを活用できる品質意味表現を改善するように設計されている。
- 参考スコア(独自算出の注目度): 12.37229805276939
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To better support information retrieval tasks such as web search and
open-domain question answering, growing effort is made to develop
retrieval-oriented language models, e.g., RetroMAE and many others. Most of the
existing works focus on improving the semantic representation capability for
the contextualized embedding of the [CLS] token. However, recent study shows
that the ordinary tokens besides [CLS] may provide extra information, which
help to produce a better representation effect. As such, it's necessary to
extend the current methods where all contextualized embeddings can be jointly
pre-trained for the retrieval tasks. In this work, we propose a novel
pre-training method called Duplex Masked Auto-Encoder, a.k.a. DupMAE. It is
designed to improve the quality of semantic representation where all
contextualized embeddings of the pre-trained model can be leveraged. It takes
advantage of two complementary auto-encoding tasks: one reconstructs the input
sentence on top of the [CLS] embedding; the other one predicts the bag-of-words
feature of the input sentence based on the ordinary tokens' embeddings. The two
tasks are jointly conducted to train a unified encoder, where the whole
contextualized embeddings are aggregated in a compact way to produce the final
semantic representation. DupMAE is simple but empirically competitive: it
substantially improves the pre-trained model's representation capability and
transferability, where superior retrieval performances can be achieved on
popular benchmarks, like MS MARCO and BEIR.
- Abstract(参考訳): Web検索やオープンドメイン質問応答などの情報検索タスクをより支援するために,RetroMAEなどの検索指向言語モデルの開発に力を入れている。
既存の作業のほとんどは[cls]トークンのコンテキスト化された埋め込みのための意味表現能力の改善に重点を置いている。
しかし、最近の研究では、[CLS]以外の通常のトークンは、表現効果を高めるために余分な情報を提供する可能性があることが示されている。
そのため、コンテクスト化された埋め込みを検索タスクのために共同で事前学習できる現在のメソッドを拡張する必要がある。
本研究では,DupMAE(Duplex Masked Auto-Encoder)と呼ばれる新しい事前学習手法を提案する。
事前訓練されたモデルのすべてのコンテキスト化された埋め込みを活用できるセマンティック表現の品質を向上させるように設計されている。
1つは[CLS]埋め込み上に入力文を再構成し、もう1つは通常のトークンの埋め込みに基づいて入力文の単語の特徴を予測する。
2つのタスクは統合エンコーダを訓練するために共同で行われ、コンテキスト化された埋め込み全体をコンパクトな方法で集約して最終的な意味表現を生成する。
DupMAEは単純だが実験的に競争力があり、MS MARCOやBEIRのような一般的なベンチマークで優れた検索性能が得られる事前訓練されたモデルの表現能力と転送性を大幅に改善する。
関連論文リスト
- CoT-MAE v2: Contextual Masked Auto-Encoder with Multi-view Modeling for
Passage Retrieval [34.08763911138496]
本研究は、コンテキストマスキング自動エンコーダにマルチビューモデリングをもたらす。
このマルチビュー事前学習手法をCoT-MAE v2と呼ぶ。
論文 参考訳(メタデータ) (2023-04-05T08:00:38Z) - MASTER: Multi-task Pre-trained Bottlenecked Masked Autoencoders are
Better Dense Retrievers [140.0479479231558]
本研究では,様々な事前学習タスクをマルチタスク事前学習モデル(MASTER)に統合することを目的とする。
MASTERは共有エンコーダのマルチデコーダアーキテクチャを利用して、タスク全体にわたる豊富なセマンティック情報を高密度ベクトルに圧縮する表現ボトルネックを構築することができる。
論文 参考訳(メタデータ) (2022-12-15T13:57:07Z) - RetroMAE v2: Duplex Masked Auto-Encoder For Pre-Training
Retrieval-Oriented Language Models [3.4523793651427113]
本稿では,[] と通常のトークンの両方のコンテキスト化埋め込みにおける意味表現能力の向上を目標とする,二重マスク付き自動エンコーダ DupMAE を提案する。
DupMAEは単純だが経験的競争力があり、デコードコストが小さいため、モデルの表現能力と転送可能性に大きく貢献する。
論文 参考訳(メタデータ) (2022-11-16T08:57:55Z) - ConTextual Mask Auto-Encoder for Dense Passage Retrieval [49.49460769701308]
CoT-MAEは,高密度経路抽出のための簡易かつ効果的な生成前訓練法である。
文のセマンティクスを高密度ベクトルに圧縮する学習は、自己教師付きおよび文脈教師付きマスキングによる自動エンコーディングによって行われる。
我々は,大規模経路探索ベンチマークの実験を行い,強力なベースラインよりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2022-08-16T11:17:22Z) - Masked Autoencoders As The Unified Learners For Pre-Trained Sentence
Representation [77.47617360812023]
我々は、最近提案されたMAEスタイルの事前学習戦略であるRetroMAEを拡張し、幅広い文表現タスクをサポートする。
最初のステージでは、ベースモデルが学習されるWikipedia、BookCorpusなど、一般的なコーパス上でRetroMAEを実行する。
第2段階はドメイン固有のデータ、例えばMS MARCOやNLIで行われ、ベースモデルはRetroMAEとコントラスト学習に基づいて継続的に訓練される。
論文 参考訳(メタデータ) (2022-07-30T14:34:55Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z) - COCO-LM: Correcting and Contrasting Text Sequences for Language Model
Pretraining [59.169836983883656]
COCO-LMは、チャレンジングなエラーとテキストシーケンスの変換によって言語モデルを事前学習する新しい自己監視学習フレームワークです。
COCO-LMは、オリジナルのテキストシーケンスでマスク&予測トークンに補助言語モデルを採用しています。
分析の結果,coco-lmのアドバンテージは,困難なトレーニング信号,よりコンテキスト化されたトークン表現,正規化されたシーケンス表現であることがわかった。
論文 参考訳(メタデータ) (2021-02-16T22:24:29Z) - Automated Concatenation of Embeddings for Structured Prediction [75.44925576268052]
本稿では, 埋め込みの自動結合(ACE)を提案し, 構造予測タスクにおける埋め込みのより優れた結合を見つけるプロセスを自動化する。
我々は、強化学習の戦略に従い、制御器のパラメータを最適化し、タスクモデルの精度に基づいて報酬を計算する。
論文 参考訳(メタデータ) (2020-10-10T14:03:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。