論文の概要: MASTER: Multi-task Pre-trained Bottlenecked Masked Autoencoders are
Better Dense Retrievers
- arxiv url: http://arxiv.org/abs/2212.07841v2
- Date: Mon, 19 Jun 2023 10:03:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 04:38:52.966929
- Title: MASTER: Multi-task Pre-trained Bottlenecked Masked Autoencoders are
Better Dense Retrievers
- Title(参考訳): MASTER:マルチタスクで事前訓練された自動エンコーダ
- Authors: Kun Zhou, Xiao Liu, Yeyun Gong, Wayne Xin Zhao, Daxin Jiang, Nan Duan,
Ji-Rong Wen
- Abstract要約: 本研究では,様々な事前学習タスクをマルチタスク事前学習モデル(MASTER)に統合することを目的とする。
MASTERは共有エンコーダのマルチデコーダアーキテクチャを利用して、タスク全体にわたる豊富なセマンティック情報を高密度ベクトルに圧縮する表現ボトルネックを構築することができる。
- 参考スコア(独自算出の注目度): 140.0479479231558
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-trained Transformers (\eg BERT) have been commonly used in existing dense
retrieval methods for parameter initialization, and recent studies are
exploring more effective pre-training tasks for further improving the quality
of dense vectors. Although various novel and effective tasks have been
proposed, their different input formats and learning objectives make them hard
to be integrated for jointly improving the model performance. In this work, we
aim to unify a variety of pre-training tasks into the bottlenecked masked
autoencoder manner, and integrate them into a multi-task pre-trained model,
namely MASTER. Concretely, MASTER utilizes a shared-encoder multi-decoder
architecture that can construct a representation bottleneck to compress the
abundant semantic information across tasks into dense vectors. Based on it, we
integrate three types of representative pre-training tasks: corrupted passages
recovering, related passages recovering and PLMs outputs recovering, to
characterize the inner-passage information, inter-passage relations and PLMs
knowledge. Extensive experiments have shown that our approach outperforms
competitive dense retrieval methods. Our code and data are publicly released in
\url{https://github.com/microsoft/SimXNS}.
- Abstract(参考訳): パラメータ初期化のための既存の高密度検索手法では、事前学習型変換器 (\eg BERT) がよく用いられており、近年では高密度ベクトルの品質向上のために、より効果的な事前学習タスクが検討されている。
様々な新規かつ効果的なタスクが提案されているが、それらの異なる入力形式と学習目的により、モデル性能を共同で改善する統合が困難になる。
本研究では,種々の事前学習タスクをボトルネック付きマスク付きオートエンコーダ方式に統合し,マルチタスク事前学習モデルであるMASTERに統合することを目的とする。
具体的には、masterは共有エンコーダマルチデコーダアーキテクチャを使用して、表現ボトルネックを構築し、タスク間の豊富なセマンティック情報を密集したベクトルに圧縮する。
そこで本研究では,3種類の事前学習タスクを統合した。破損した経路の回復,関連する経路の回復,PLMの出力の回復,内部通過情報の特徴付け,パス間関係,PLMの知識。
広範な実験により,本手法は競争的検索手法よりも優れていることが示された。
我々のコードとデータは \url{https://github.com/microsoft/SimXNS} で公開されています。
関連論文リスト
- Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - CL-MAE: Curriculum-Learned Masked Autoencoders [49.24994655813455]
本稿では,自己指導型再建作業の複雑さを継続的に増大させるために,マスキング戦略を更新するカリキュラム学習手法を提案する。
我々は、ImageNet上でCL-MAE(Curriculum-Learned Masked Autoencoder)をトレーニングし、MAEよりも優れた表現学習能力を示すことを示す。
論文 参考訳(メタデータ) (2023-08-31T09:13:30Z) - Pre-training Multi-task Contrastive Learning Models for Scientific
Literature Understanding [52.723297744257536]
事前学習言語モデル(LM)は、科学文献理解タスクにおいて有効であることを示す。
文献理解タスク間の共通知識共有を容易にするために,マルチタスクのコントラスト学習フレームワークであるSciMultを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:47:22Z) - TransCoder: Towards Unified Transferable Code Representation Learning Inspired by Human Skills [31.75121546422898]
本稿では,コード表現学習のためのTransCoderについて述べる。
我々は、メタラーナーとして調整可能なプレフィックスエンコーダを用いて、クロスタスクおよびクロス言語変換可能な知識をキャプチャする。
本手法は, 各種コード関連タスクの性能向上と相互強化の促進に寄与する。
論文 参考訳(メタデータ) (2023-05-23T06:59:22Z) - KnowDA: All-in-One Knowledge Mixture Model for Data Augmentation in
Few-Shot NLP [68.43279384561352]
既存のデータ拡張アルゴリズムはタスク非依存のルールや微調整の汎用事前訓練言語モデルを利用する。
これらの手法は、簡単なタスク固有の知識を持ち、単純なタスクにおいて弱いベースラインのための低品質な合成データを得るに限られる。
我々は,様々なNLPタスクを予め学習したエンコーダ/デコーダLMの知識混合データ拡張モデル(KnowDA)を提案する。
論文 参考訳(メタデータ) (2022-06-21T11:34:02Z) - Uni-Perceiver: Pre-training Unified Architecture for Generic Perception
for Zero-shot and Few-shot Tasks [73.63892022944198]
我々はUni-Perceiverという汎用認識アーキテクチャを提案する。
様々なモダリティやタスクを、統一されたモデリングと共有パラメータで処理します。
その結果、チューニングなしで事前学習したモデルは、新しいタスクでも合理的なパフォーマンスを達成できることがわかった。
論文 参考訳(メタデータ) (2021-12-02T18:59:50Z) - Efficient Retrieval Optimized Multi-task Learning [16.189136169520424]
本稿では,自己指導型タスク,知識検索,抽出質問応答を共同で訓練するための新しい検索最適化マルチタスク(ROM)フレームワークを提案する。
我々のROMアプローチは、複数のタスクに効率的にスケーリングできる統一的で一般化可能なフレームワークを提供する。
当社のフレームワークでは,近年のQAメソッドよりも同等あるいは優れたパフォーマンスを実現していますが,パラメータの数を大幅に削減しています。
論文 参考訳(メタデータ) (2021-04-20T17:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。