論文の概要: BURT: BERT-inspired Universal Representation from Learning Meaningful
Segment
- arxiv url: http://arxiv.org/abs/2012.14320v2
- Date: Thu, 31 Dec 2020 09:56:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 11:06:09.302047
- Title: BURT: BERT-inspired Universal Representation from Learning Meaningful
Segment
- Title(参考訳): BURT:BERTにインスパイアされたUniversal Representation from Learning Meaningful Segment
- Authors: Yian Li, Hai Zhao
- Abstract要約: この研究は普遍的な表現学習、すなわち一様ベクトル空間における言語単位の異なるレベルへの埋め込みを導入し、探求する。
我々は、異なるレベルの言語単位を同じベクトル空間に符号化する普遍表現モデルburtを提案する。
具体的には,ポイントワイズ相互情報(pmi)に基づいて有意義なセグメントを抽出・マスキングし,異なる粒度目標を事前学習段階に組み込む。
- 参考スコア(独自算出の注目度): 46.51685959045527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although pre-trained contextualized language models such as BERT achieve
significant performance on various downstream tasks, current language
representation still only focuses on linguistic objective at a specific
granularity, which may not applicable when multiple levels of linguistic units
are involved at the same time. Thus this work introduces and explores the
universal representation learning, i.e., embeddings of different levels of
linguistic unit in a uniform vector space. We present a universal
representation model, BURT (BERT-inspired Universal Representation from
learning meaningful segmenT), to encode different levels of linguistic unit
into the same vector space. Specifically, we extract and mask meaningful
segments based on point-wise mutual information (PMI) to incorporate different
granular objectives into the pre-training stage. We conduct experiments on
datasets for English and Chinese including the GLUE and CLUE benchmarks, where
our model surpasses its baselines and alternatives on a wide range of
downstream tasks. We present our approach of constructing analogy datasets in
terms of words, phrases and sentences and experiment with multiple
representation models to examine geometric properties of the learned vector
space through a task-independent evaluation. Finally, we verify the
effectiveness of our unified pre-training strategy in two real-world text
matching scenarios. As a result, our model significantly outperforms existing
information retrieval (IR) methods and yields universal representations that
can be directly applied to retrieval-based question-answering and natural
language generation tasks.
- Abstract(参考訳): bertのような事前訓練されたコンテキスト化された言語モデルは、様々な下流タスクにおいて重要な性能を発揮するが、現在の言語表現は、依然として特定の粒度での言語目標のみに焦点を当てている。
このように、この研究は普遍的な表現学習、すなわち一様ベクトル空間に異なる言語単位のレベルを埋め込むことを導入し、探求する。
本稿では,共通表現モデル BURT (BERT-inspired Universal Representation from learning meaningful segmenT) を提案し,異なる言語単位のレベルを同一ベクトル空間にエンコードする。
具体的には,ポイントワイズ相互情報(pmi)に基づいて有意義なセグメントを抽出・マスキングし,異なる粒度目標を事前学習段階に組み込む。
GLUEベンチマークやCLUEベンチマークなど、英語と中国語のデータセットで実験を行い、このモデルがベースラインを越え、幅広いダウンストリームタスクに代替手段を提供する。
本稿では,単語,句,文という用語を用いた類似データセットの構築と,学習ベクトル空間の幾何学的特性をタスク非依存評価により検証するための複数の表現モデル実験について述べる。
最後に,2つの実世界のテキストマッチングシナリオにおける統合事前学習戦略の有効性を検証する。
その結果,本モデルは既存の情報検索(ir)手法を著しく上回り,検索に基づく質問応答や自然言語生成タスクに直接適用可能な普遍表現が得られる。
関連論文リスト
- A Knowledge-Enhanced Adversarial Model for Cross-lingual Structured
Sentiment Analysis [31.05169054736711]
言語間構造的感情分析タスクは、ソース言語からターゲット言語へ知識を伝達することを目的としている。
本稿では,暗黙的分散と明示的構造的知識を両立させた知識強化逆数モデル(textttKEAM)を提案する。
我々は5つのデータセットの実験を行い、textttKEAMと教師なしおよび教師なしの両方の手法を比較した。
論文 参考訳(メタデータ) (2022-05-31T03:07:51Z) - Pre-Trained Language Models for Interactive Decision-Making [72.77825666035203]
目的と観測を埋め込みのシーケンスとして表現する模倣学習の枠組みを述べる。
このフレームワークは様々な環境にまたがって効果的な一般化を可能にすることを実証する。
新たなゴールや新しいシーンを含むテストタスクでは、言語モデルによる初期化ポリシーはタスク完了率を43.6%改善する。
論文 参考訳(メタデータ) (2022-02-03T18:55:52Z) - IGLUE: A Benchmark for Transfer Learning across Modalities, Tasks, and
Languages [87.5457337866383]
画像認識言語理解評価ベンチマークについて紹介する。
IGLUEは、視覚的質問応答、クロスモーダル検索、グラウンドド推論、20言語にわたるグラウンドドエンターテイメントタスクをまとめて提供する。
翻訳-テストの転送はゼロショットの転送よりも優れており、少数ショットの学習は多くのタスクに役立てることが難しい。
論文 参考訳(メタデータ) (2022-01-27T18:53:22Z) - A Hierarchical Model for Spoken Language Recognition [29.948719321162883]
音声言語認識(SLR)とは、音声サンプルに含まれる言語を決定するための自動処理である。
本稿では,2つのPLDAモデルを訓練し,その1つは高関係言語クラスタのスコアを生成し,もう1つは各クラスタに条件付きスコアを生成するという新しい階層的アプローチを提案する。
この階層的アプローチは、高度に関連性の高い言語を検出する非階層的アプローチよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-01-04T22:10:36Z) - On Cross-Lingual Retrieval with Multilingual Text Encoders [51.60862829942932]
言語間文書・文検索タスクにおける最先端多言語エンコーダの適合性について検討する。
教師なしのアドホック文と文書レベルのCLIR実験でそれらの性能をベンチマークする。
我々は、ゼロショット言語とドメイン転送CLIR実験のシリーズにおける英語関連データに基づいて、教師付き方式で微調整された多言語エンコーダの評価を行った。
論文 参考訳(メタデータ) (2021-12-21T08:10:27Z) - Incorporating Linguistic Knowledge for Abstractive Multi-document
Summarization [20.572283625521784]
ニューラルネットワークに基づく抽象的多文書要約(MDS)モデルを開発した。
依存関係情報を言語誘導型注意機構に処理する。
言語信号の助けを借りて、文レベルの関係を正しく捉えることができる。
論文 参考訳(メタデータ) (2021-09-23T08:13:35Z) - A Massively Multilingual Analysis of Cross-linguality in Shared
Embedding Space [61.18554842370824]
言語間モデルでは、多くの異なる言語に対する表現は同じ空間に存在している。
我々は,bitext検索性能の形式で,言語間アライメントのタスクベース尺度を計算した。
我々はこれらのアライメント指標の潜在的な予測因子として言語的、準言語的、および訓練関連の特徴について検討する。
論文 参考訳(メタデータ) (2021-09-13T21:05:37Z) - Pre-training Universal Language Representation [46.51685959045527]
この研究は普遍言語表現学習、すなわち、一様ベクトル空間に非常に多様な長さを持つ言語単位やテキストの異なるレベルの埋め込みを導入している。
我々は、よく設計された事前学習スキームが、効果的に普遍的な言語表現をもたらすことを実証的に検証する。
論文 参考訳(メタデータ) (2021-05-30T09:29:01Z) - A Masked Segmental Language Model for Unsupervised Natural Language
Segmentation [12.6839867674222]
Span-Maskingトランスフォーマーアーキテクチャ上に構築されたMasked Segmental Language Model(MSLM)を紹介します。
一連の実験では、私たちのモデルは中国語の繰り返しSLMを一貫して上回ります。
最後に、音素型ライティングシステムのセグメント化におけるさまざまな課題について議論する。
論文 参考訳(メタデータ) (2021-04-16T00:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。