論文の概要: Efficient Pre-training of Masked Language Model via Concept-based
Curriculum Masking
- arxiv url: http://arxiv.org/abs/2212.07617v1
- Date: Thu, 15 Dec 2022 05:01:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 16:44:09.925931
- Title: Efficient Pre-training of Masked Language Model via Concept-based
Curriculum Masking
- Title(参考訳): 概念に基づくカリキュラムマスクによるマスク言語モデルの効率的な事前学習
- Authors: Mingyu Lee, Jun-Hyung Park, Junho Kim, Kang-Min Kim, and SangKeun Lee
- Abstract要約: Masked Language Modeling (MLM) は、効果的な表現の事前学習に広く用いられているが、かなりの訓練コストがかかる。
本稿では,言語モデルを効率的に事前学習するための概念ベースカリキュラムマスキング(CCM)手法を提案する。
- 参考スコア(独自算出の注目度): 12.865594826802363
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Masked language modeling (MLM) has been widely used for pre-training
effective bidirectional representations, but incurs substantial training costs.
In this paper, we propose a novel concept-based curriculum masking (CCM) method
to efficiently pre-train a language model. CCM has two key differences from
existing curriculum learning approaches to effectively reflect the nature of
MLM. First, we introduce a carefully-designed linguistic difficulty criterion
that evaluates the MLM difficulty of each token. Second, we construct a
curriculum that gradually masks words related to the previously masked words by
retrieving a knowledge graph. Experimental results show that CCM significantly
improves pre-training efficiency. Specifically, the model trained with CCM
shows comparative performance with the original BERT on the General Language
Understanding Evaluation benchmark at half of the training cost.
- Abstract(参考訳): Masked Language Modeling (MLM) は、効果的な双方向表現の事前学習に広く用いられているが、かなりの訓練コストがかかる。
本稿では,言語モデルを効率的に事前学習するための概念ベースカリキュラムマスキング(CCM)手法を提案する。
CCMには、MLMの性質を効果的に反映する既存のカリキュラム学習アプローチとの大きな違いが2つある。
まず,各トークンのMLM難易度を評価する言語難易度基準を提案する。
第二に, 知識グラフを検索することにより, 先行する単語に関連する単語を徐々にマスキングするカリキュラムを構築する。
実験の結果, ccmは前訓練効率が有意に向上した。
具体的には、ccmでトレーニングしたモデルは、トレーニングコストの半額で、一般言語理解評価ベンチマークでオリジナルのbertとの比較パフォーマンスを示す。
関連論文リスト
- CBM: Curriculum by Masking [27.320746607958142]
Curriculum by Masking (CBM)は、物体の認識と検出のための最先端のカリキュラム学習戦略である。
CBMはパッチ(トークン)マスキングによって、簡単にハードなトレーニングスケジュールを作成する。
我々はCBMとカリキュラムベースの教育制度を比較した。
論文 参考訳(メタデータ) (2024-07-06T21:35:18Z) - Unsupervised Improvement of Factual Knowledge in Language Models [4.5788796239850225]
マスケッド言語モデリングは、大規模言語モデルの事前訓練において重要な役割を果たす。
本稿では,様々な知識集約型タスクにおいて,言語モデルの性能を向上させる方法として,事前学習に影響を与えるアプローチを提案する。
論文 参考訳(メタデータ) (2023-04-04T07:37:06Z) - Turning a CLIP Model into a Scene Text Detector [56.86413150091367]
近年,視覚言語モデルに基づく事前学習手法がテキスト検出の分野で有効な進歩を遂げている。
本稿では,CLIPモデルを事前学習せずにテキスト検出に利用することを目的とした,TCMと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-02-28T06:06:12Z) - Leveraging per Image-Token Consistency for Vision-Language Pre-training [52.825150269820696]
クロスモーダルマスク言語モデリング(CMLM)は視覚言語事前学習には不十分である。
視覚言語事前学習のためのEPIC(Leveraging Per Image-Token Consistency)を提案する。
提案手法は, 事前学習法と容易に組み合わせることができる。
論文 参考訳(メタデータ) (2022-11-20T12:10:53Z) - LERT: A Linguistically-motivated Pre-trained Language Model [67.65651497173998]
本稿では,3種類の言語特徴を学習する事前学習型言語モデルLERTを提案する。
我々は,中国における10のNLUタスクについて広範な実験を行い,LERTが大きな改善をもたらすことを示す実験結果を得た。
論文 参考訳(メタデータ) (2022-11-10T05:09:16Z) - Learning Better Masking for Better Language Model Pre-training [80.31112722910787]
Masked Language Modelingは、事前学習言語モデル(PrLM)の目的を認知するために広く使われている。
PrLMは、固定マスキング比を適用し、トレーニング全体を通して異なる内容が同じ確率でマスクされるランダム-トークンマスキング戦略を採用するのが一般的である。
本研究では,異なるトレーニング段階におけるマスキング率とマスキング内容の調整を適応的に行う2つのマスク手法を提案する。
論文 参考訳(メタデータ) (2022-08-23T08:27:52Z) - Bridging the Gap between Language Models and Cross-Lingual Sequence
Labeling [101.74165219364264]
大規模言語間事前学習言語モデル (xPLM) は、言語間シーケンスラベリングタスクにおいて有効であることを示す。
大きな成功にもかかわらず、事前学習と微調整の段階の間には訓練対象のギャップがあるという経験的観察を描いている。
本稿では,まず,言語間インフォーマティブ・スパン・マスキング(CLISM)と呼ばれるxSLのための事前学習タスクを設計し,目的のギャップを解消する。
第2に、コントラスト学習を利用して入力並列表現間の一貫性を促進するContrAstive-Consistency Regularization (CACR)を提案する。
論文 参考訳(メタデータ) (2022-04-11T15:55:20Z) - LICHEE: Improving Language Model Pre-training with Multi-grained
Tokenization [19.89228774074371]
本稿では,入力テキストの多粒度情報を効率的に組み込むための,シンプルで効果的な事前学習手法であるlicHEEを提案する。
本手法は,様々な事前学習言語モデルに適用でき,その表現能力を向上させることができる。
論文 参考訳(メタデータ) (2021-08-02T12:08:19Z) - Universal Sentence Representation Learning with Conditional Masked
Language Model [7.334766841801749]
文表現を効果的に学習するための条件付きマスク言語モデリング(M)を提案する。
我々の英語CMLMモデルは,SentEvalの最先端性能を実現する。
完全に教師なしの学習方法として、CMLMは幅広い言語やドメインに便利に拡張できます。
論文 参考訳(メタデータ) (2020-12-28T18:06:37Z) - MC-BERT: Efficient Language Pre-Training via a Meta Controller [96.68140474547602]
大規模事前学習は計算コストが高い。
事前トレーニングを加速する初期の試みであるELECTRAは、各入力トークンがジェネレータに置き換えられたかどうかを予測する識別モデルを訓練している。
本稿では,MC-BERTというメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T09:22:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。