論文の概要: KR-BERT: A Small-Scale Korean-Specific Language Model
- arxiv url: http://arxiv.org/abs/2008.03979v2
- Date: Tue, 11 Aug 2020 06:21:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 22:45:40.712793
- Title: KR-BERT: A Small-Scale Korean-Specific Language Model
- Title(参考訳): KR-BERT:小型韓国特色言語モデル
- Authors: Sangah Lee, Hansol Jang, Yunmee Baik, Suzi Park, Hyopil Shin
- Abstract要約: 韓国固有のKR-BERTモデルを,より小さな語彙とデータセットを用いて訓練した。
本モデルでは, コーパスを約1/10のサイズのコーパスを用いて, 既存の事前学習モデルと比較し, 比較検討を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since the appearance of BERT, recent works including XLNet and RoBERTa
utilize sentence embedding models pre-trained by large corpora and a large
number of parameters. Because such models have large hardware and a huge amount
of data, they take a long time to pre-train. Therefore it is important to
attempt to make smaller models that perform comparatively. In this paper, we
trained a Korean-specific model KR-BERT, utilizing a smaller vocabulary and
dataset. Since Korean is one of the morphologically rich languages with poor
resources using non-Latin alphabets, it is also important to capture
language-specific linguistic phenomena that the Multilingual BERT model missed.
We tested several tokenizers including our BidirectionalWordPiece Tokenizer and
adjusted the minimal span of tokens for tokenization ranging from sub-character
level to character-level to construct a better vocabulary for our model. With
those adjustments, our KR-BERT model performed comparably and even better than
other existing pre-trained models using a corpus about 1/10 of the size.
- Abstract(参考訳): BERTの出現以来、XLNetやRoBERTaといった最近の研究は、大量のコーパスと多数のパラメータによって事前訓練された文埋め込みモデルを利用している。
このようなモデルには大きなハードウェアと膨大なデータがあるため、事前トレーニングには長い時間がかかる。
そのため、比較的小さなモデルを作ることが重要である。
本稿では,より小さな語彙とデータセットを用いて,韓国固有のKR-BERTモデルを訓練した。
韓国語は非ラテン文字による資源の乏しい形態学的に豊かな言語の1つであるため、多言語BERTモデルが欠落した言語固有の言語現象を捉えることも重要である。
私たちはbidirectionalwordpieceトークンライザを含むいくつかのトークンライザをテストし、サブキャラクタレベルからキャラクタレベルまで、トークン化のためのトークンの最小スパンを調整して、モデルのためのより良い語彙を構築しました。
これらの調整により, 我々のKR-BERTモデルは, コーパスの約1/10を用いて, 既存の事前訓練モデルよりも比較可能かつ良好な性能を示した。
関連論文リスト
- From N-grams to Pre-trained Multilingual Models For Language Identification [0.35760345713831954]
南アフリカの11言語を対象として,N-gramモデルとLarge-trained Multilingual Model for Language Identification (LID)について検討した。
N-gramモデルでは、対象言語の効果的な周波数分布を確立するためには、有効なデータサイズ選択が不可欠であることを示す。
我々は,SerengetiがN-gramsからTransformerに平均して優れたモデルであることを示す。
論文 参考訳(メタデータ) (2024-10-11T11:35:57Z) - Evaluating Large Language Models on Controlled Generation Tasks [92.64781370921486]
本稿では,異なる粒度を持つ文計画ベンチマークを含む,様々なベンチマークを広範囲に分析する。
大規模言語モデルと最先端の微調整された小型モデルを比較した後、大規模言語モデルが後方に落ちたり、比較されたり、より小型モデルの能力を超えたりしたスペクトルを示す。
論文 参考訳(メタデータ) (2023-10-23T03:48:24Z) - Language Model Pre-Training with Sparse Latent Typing [66.75786739499604]
そこで本研究では,多種多様な潜在型を持つ文レベルのキーワードを疎に抽出することのできる,事前学習対象Sparse Latent Typingを提案する。
実験結果から,本モデルは外部知識を使わずに,自己教師型で解釈可能な潜在型カテゴリを学習できることが示唆された。
論文 参考訳(メタデータ) (2022-10-23T00:37:08Z) - Pre-training Data Quality and Quantity for a Low-Resource Language: New
Corpus and BERT Models for Maltese [4.4681678689625715]
低リソース言語に対するモノリンガルデータによる事前学習の効果を分析する。
新たに作成したマルタ語コーパスを提示し、事前学習データサイズとドメインが下流のパフォーマンスに与える影響を判定する。
スクラッチからトレーニングされた単言語BERTモデル(BERTu)と、さらに事前訓練された多言語BERT(mBERTu)の2つのモデルを比較する。
論文 参考訳(メタデータ) (2022-05-21T06:44:59Z) - Training dataset and dictionary sizes matter in BERT models: the case of
Baltic languages [0.0]
我々はリトアニア語、ラトビア語、英語の3言語モデルLitLat BERTとエストニア語の単言語モデルEst-RoBERTaを訓練する。
提案手法は,エンティティ認識,依存性解析,パート・オブ・音声タグ付け,単語類似処理の4つのダウンストリームタスクにおいて,その性能を評価する。
論文 参考訳(メタデータ) (2021-12-20T14:26:40Z) - Lattice-BERT: Leveraging Multi-Granularity Representations in Chinese
Pre-trained Language Models [62.41139712595334]
中国語のための新しい事前学習パラダイムであるLattice-BERTを提案する。
文中の文字や単語から格子グラフを構築し、これらすべてのテキスト単位をトランスフォーマーに供給します。
本モデルが12層設定で平均1.5%の増加をもたらすことを示した。
論文 参考訳(メタデータ) (2021-04-15T02:36:49Z) - UNKs Everywhere: Adapting Multilingual Language Models to New Scripts [103.79021395138423]
マルチリンガルBERT(mBERT)やXLM-Rのような多言語言語モデルは、様々なNLPタスクに対して最先端の言語間転送性能を提供する。
キャパシティの制限と事前トレーニングデータの大きな差のため、リソース豊富な言語とリソースを対象とする言語には大きなパフォーマンスギャップがある。
本稿では,事前学習した多言語モデルの低リソース言語や未知のスクリプトへの高速かつ効果的な適応を可能にする新しいデータ効率手法を提案する。
論文 参考訳(メタデータ) (2020-12-31T11:37:28Z) - Comparison of Interactive Knowledge Base Spelling Correction Models for
Low-Resource Languages [81.90356787324481]
低リソース言語に対する正規化の推進は、パターンの予測が難しいため、難しい作業である。
この研究は、ターゲット言語データに様々な量を持つニューラルモデルとキャラクタ言語モデルの比較を示す。
我々の利用シナリオは、ほぼゼロのトレーニング例によるインタラクティブな修正であり、より多くのデータが収集されるにつれてモデルを改善する。
論文 参考訳(メタデータ) (2020-10-20T17:31:07Z) - WikiBERT models: deep transfer learning for many languages [1.3455090151301572]
ウィキペディアデータから言語固有のBERTモデルを作成するための、単純で完全に自動化されたパイプラインを導入します。
我々は,これらのモデルの有効性を,Universal Dependenciesデータに基づく最先端のUDifyを用いて評価する。
論文 参考訳(メタデータ) (2020-06-02T11:57:53Z) - Structure-Level Knowledge Distillation For Multilingual Sequence
Labeling [73.40368222437912]
本稿では,複数の単言語モデルの構造的知識を統一多言語モデル(学生)に蒸留することにより,単言語モデルと統一多言語モデルとのギャップを低減することを提案する。
25のデータセットを用いた4つの多言語タスクの実験により、我々のアプローチはいくつかの強いベースラインを上回り、ベースラインモデルと教師モデルの両方よりも強力なゼロショット一般化性を有することが示された。
論文 参考訳(メタデータ) (2020-04-08T07:14:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。