論文の概要: Probabilistically Masked Language Model Capable of Autoregressive
Generation in Arbitrary Word Order
- arxiv url: http://arxiv.org/abs/2004.11579v1
- Date: Fri, 24 Apr 2020 07:38:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 03:36:06.193180
- Title: Probabilistically Masked Language Model Capable of Autoregressive
Generation in Arbitrary Word Order
- Title(参考訳): 任意語順における自己回帰生成が可能な確率的マスク言語モデル
- Authors: Yi Liao, Xin Jiang, Qun Liu
- Abstract要約: マスケード言語モデルと自己回帰言語モデルは2種類の言語モデルである。
本稿では,確率的マスキングモデル (PMLM) と呼ばれるマスキング言語モデルに対する確率論的マスキング手法を提案する。
我々は, u-PMLM が自己回帰型置換言語モデルと等価であることを証明した。
- 参考スコア(独自算出の注目度): 32.71489048856101
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Masked language model and autoregressive language model are two types of
language models. While pretrained masked language models such as BERT overwhelm
the line of natural language understanding (NLU) tasks, autoregressive language
models such as GPT are especially capable in natural language generation (NLG).
In this paper, we propose a probabilistic masking scheme for the masked
language model, which we call probabilistically masked language model (PMLM).
We implement a specific PMLM with a uniform prior distribution on the masking
ratio named u-PMLM. We prove that u-PMLM is equivalent to an autoregressive
permutated language model. One main advantage of the model is that it supports
text generation in arbitrary order with surprisingly good quality, which could
potentially enable new applications over traditional unidirectional generation.
Besides, the pretrained u-PMLM also outperforms BERT on a set of downstream NLU
tasks.
- Abstract(参考訳): マスケード言語モデルと自己回帰言語モデルは2種類の言語モデルである。
BERTのような事前訓練されたマスク付き言語モデルが自然言語理解(NLU)タスクのラインを圧倒する一方、GPTのような自己回帰型言語モデルは特に自然言語生成(NLG)において機能する。
本稿では,確率的マスキングモデル (PMLM) と呼ばれるマスキング言語モデルの確率論的マスキング手法を提案する。
U-PMLMと命名されたマスク比の均一な事前分布を持つ特定のPMLMを実装した。
u-PMLMは自己回帰型置換言語モデルと等価であることを示す。
モデルの主な利点の1つは、驚くほど優れた品質で任意の順序でテキスト生成をサポートすることである。
さらに、事前訓練されたu-PMLMは、下流のNLUタスクのセットでBERTを上回っている。
関連論文リスト
- FiLM: Fill-in Language Models for Any-Order Generation [71.42044325886194]
Fill-in Language Model (FiLM) は、特定の生成順序に固執することなく任意の位置で柔軟な生成を可能にする新しい言語モデリング手法である。
推論中、FiLMは欠落したフレーズ、文、段落をシームレスに挿入できる。
FiLMは、再構成されたテキストセグメントでトレーニングされた左から右への言語モデルに依存する既存のインフィル手法よりも優れています。
論文 参考訳(メタデータ) (2023-10-15T19:37:39Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Deriving Language Models from Masked Language Models [12.628196757545979]
Masked Language Model (MLM) は言語上の分布を明確に定義していない。
最近の研究は、それらを生成と得点の目的で暗黙的に扱っている。
論文 参考訳(メタデータ) (2023-05-24T18:42:45Z) - An Overview on Language Models: Recent Developments and Outlook [32.528770408502396]
従来の言語モデル(CLM)は、因果的に言語シーケンスの確率を予測することを目的としている。
事前学習言語モデル(PLM)はより広範な概念をカバーし、因果逐次モデリングと下流アプリケーションのための微調整の両方に使用することができる。
論文 参考訳(メタデータ) (2023-03-10T07:55:00Z) - Modeling Sequential Sentence Relation to Improve Cross-lingual Dense
Retrieval [87.11836738011007]
マスク付き文モデル(MSM)と呼ばれる多言語多言語言語モデルを提案する。
MSMは、文表現を生成する文エンコーダと、文書から文ベクトルのシーケンスに適用される文書エンコーダとから構成される。
モデルをトレーニングするために,サンプル負の階層的コントラスト損失によって文ベクトルをマスクし,予測するマスク付き文予測タスクを提案する。
論文 参考訳(メタデータ) (2023-02-03T09:54:27Z) - Cross-Lingual Text Classification with Multilingual Distillation and
Zero-Shot-Aware Training [21.934439663979663]
多言語事前学習言語モデル(MPLM)に基づくマルチブランチ多言語言語モデル(MBLM)
教師学習フレームワークを用いた高性能単言語モデルからの知識の伝達に基づく方法
2つの言語横断型分類タスクの結果から,MPLMの教師付きデータのみを用いることで,教師付き性能とゼロショット性能が向上することが示された。
論文 参考訳(メタデータ) (2022-02-28T09:51:32Z) - UNKs Everywhere: Adapting Multilingual Language Models to New Scripts [103.79021395138423]
マルチリンガルBERT(mBERT)やXLM-Rのような多言語言語モデルは、様々なNLPタスクに対して最先端の言語間転送性能を提供する。
キャパシティの制限と事前トレーニングデータの大きな差のため、リソース豊富な言語とリソースを対象とする言語には大きなパフォーマンスギャップがある。
本稿では,事前学習した多言語モデルの低リソース言語や未知のスクリプトへの高速かつ効果的な適応を可能にする新しいデータ効率手法を提案する。
論文 参考訳(メタデータ) (2020-12-31T11:37:28Z) - Explicitly Modeling Syntax in Language Models with Incremental Parsing
and a Dynamic Oracle [88.65264818967489]
我々は新しい構文認識型言語モデル、Syntactic Ordered Memory (SOM)を提案する。
モデルは、構造をインクリメンタルにモデル化し、標準言語モデルの条件付き確率設定を維持する。
実験により、SOMは言語モデリング、インクリメンタル解析、構文一般化テストにおいて強力な結果が得られることが示された。
論文 参考訳(メタデータ) (2020-10-21T17:39:15Z) - UniLMv2: Pseudo-Masked Language Models for Unified Language Model
Pre-Training [152.63467944568094]
本稿では,自動エンコーディングと部分的自己回帰型言語モデリングタスクの両方に対して,統一言語モデルを事前学習することを提案する。
実験の結果,PMLMを用いて事前学習した統一言語モデルは,多種多様な自然言語理解・生成タスクにおいて,新たな最先端の成果が得られることがわかった。
論文 参考訳(メタデータ) (2020-02-28T15:28:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。