論文の概要: From FreEM to D'AlemBERT: a Large Corpus and a Language Model for Early
Modern French
- arxiv url: http://arxiv.org/abs/2202.09452v1
- Date: Fri, 18 Feb 2022 22:17:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-26 18:26:34.094670
- Title: From FreEM to D'AlemBERT: a Large Corpus and a Language Model for Early
Modern French
- Title(参考訳): FreEMからD'AlemBERTへ : 大規模コーパスと近代フランス語の言語モデル
- Authors: Simon Gabay, Pedro Ortiz Suarez, Alexandre Bartz, Alix Chagu\'e,
Rachel Bawden, Philippe Gambette, Beno\^it Sagot
- Abstract要約: 我々は、近世フランス語(歴史的フランス語:16$textth$から18$textth$ century)のためのNLPツールを開発する取り組みを提示する。
我々は、近世フランス語のtextFreEM_textmax$ corpusと、$textFreEM_textmax$でトレーニングされたRoBERTaベースの言語モデルであるD'AlemBERTを提示する。
- 参考スコア(独自算出の注目度): 57.886210204774834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language models for historical states of language are becoming increasingly
important to allow the optimal digitisation and analysis of old textual
sources. Because these historical states are at the same time more complex to
process and more scarce in the corpora available, specific efforts are
necessary to train natural language processing (NLP) tools adapted to the data.
In this paper, we present our efforts to develop NLP tools for Early Modern
French (historical French from the 16$^\text{th}$ to the 18$^\text{th}$
centuries). We present the $\text{FreEM}_{\text{max}}$ corpus of Early Modern
French and D'AlemBERT, a RoBERTa-based language model trained on
$\text{FreEM}_{\text{max}}$. We evaluate the usefulness of D'AlemBERT by
fine-tuning it on a part-of-speech tagging task, outperforming previous work on
the test set. Importantly, we find evidence for the transfer learning capacity
of the language model, since its performance on lesser-resourced time periods
appears to have been boosted by the more resourced ones. We release D'AlemBERT
and the open-sourced subpart of the $\text{FreEM}_{\text{max}}$ corpus.
- Abstract(参考訳): 歴史的言語状態のための言語モデルは、古いテキストソースの最適なデジタル化と分析を可能にするためにますます重要になっている。
これらの歴史的状態はコーパスの処理が複雑であり、コーパスが不足しているため、データに適合する自然言語処理(NLP)ツールの訓練には特別な努力が必要である。
本稿では,近世フランス語のNLPツールの開発(歴史フランス語の16$^\text{th}$から18$^\text{th}$ centuryまで)について述べる。
我々は、初期フランス語の$\text{FreEM}_{\text{max}}$と、$\text{FreEM}_{\text{max}}$でトレーニングされたRoBERTaベースの言語モデルであるD'AlemBERTを提示する。
我々はD'AlemBERTの有効性を、音声のタグ付けタスクで微調整することで評価し、テストセットにおける以前の作業よりも優れていた。
重要なことは、よりリソースの少ない時間における性能が、よりリソースの少ない時間で向上したように見えるため、言語モデルの伝達学習能力を示す証拠が見つかる。
D'AlemBERTと$\text{FreEM}_{\text{max}}$ corpusのオープンソースサブパートをリリースします。
関連論文リスト
- Skywork: A More Open Bilingual Foundation Model [55.927396986873816]
英語と中国語の両方のテキストから引き出された3.2兆以上のトークンのコーパスをトレーニングした,大規模言語モデル(LLM)のファミリーであるSkywork-13Bを紹介する。
我々のモデルは,一般的なベンチマークに優れるだけでなく,さまざまなドメインにおける中国語のモデリングにおける芸術的パフォーマンスの即興性も達成できることを示す。
論文 参考訳(メタデータ) (2023-10-30T08:31:47Z) - Textually Pretrained Speech Language Models [107.10344535390956]
本稿では、事前訓練されたテキスト言語モデルからウォームスタートを用いたSpeechLMの訓練方法であるTWISTを提案する。
我々は、TWISTがボード全体のコールドスタートSpeechLMより優れる自動評価と人的評価の両方を用いて示す。
論文 参考訳(メタデータ) (2023-05-22T13:12:16Z) - FreCDo: A Large Corpus for French Cross-Domain Dialect Identification [22.132457694021184]
本稿では,413,522のフランス語テキストサンプルからなるフランス語方言識別のための新しいコーパスを提案する。
トレーニング、検証、テストの分割は、異なるニュースウェブサイトから収集される。
これはフランスのクロスドメイン(FreCDo)の方言識別タスクにつながります。
論文 参考訳(メタデータ) (2022-12-15T10:32:29Z) - LongFNT: Long-form Speech Recognition with Factorized Neural Transducer [64.75547712366784]
文レベルの長文特徴を語彙予測器の出力と直接融合するLongFNT-Textアーキテクチャを提案する。
また,LongFNT法の有効性を,相対単語誤り率(WER)が19%,GigaSpeechコーパスが12%,LongFNT法が19%であった。
論文 参考訳(メタデータ) (2022-11-17T08:48:27Z) - Language Model Pre-Training with Sparse Latent Typing [66.75786739499604]
そこで本研究では,多種多様な潜在型を持つ文レベルのキーワードを疎に抽出することのできる,事前学習対象Sparse Latent Typingを提案する。
実験結果から,本モデルは外部知識を使わずに,自己教師型で解釈可能な潜在型カテゴリを学習できることが示唆された。
論文 参考訳(メタデータ) (2022-10-23T00:37:08Z) - hmBERT: Historical Multilingual Language Models for Named Entity
Recognition [0.6226609932118123]
我々は、人物、場所、組織を史料で特定するためにNERに取り組む。
本研究では, 歴史的ドイツ語, 英語, フランス語, スウェーデン語, フィンランド語について, 大規模な歴史的言語モデルを訓練することによってNERに取り組む。
論文 参考訳(メタデータ) (2022-05-31T07:30:33Z) - Pre-training Data Quality and Quantity for a Low-Resource Language: New
Corpus and BERT Models for Maltese [4.4681678689625715]
低リソース言語に対するモノリンガルデータによる事前学習の効果を分析する。
新たに作成したマルタ語コーパスを提示し、事前学習データサイズとドメインが下流のパフォーマンスに与える影響を判定する。
スクラッチからトレーニングされた単言語BERTモデル(BERTu)と、さらに事前訓練された多言語BERT(mBERTu)の2つのモデルを比較する。
論文 参考訳(メタデータ) (2022-05-21T06:44:59Z) - TunBERT: Pretrained Contextualized Text Representation for Tunisian
Dialect [0.0]
表現不足言語に対するモノリンガルトランスフォーマーに基づく言語モデルのトレーニングの実現可能性について検討する。
構造化データの代わりにノイズの多いWebクローリングデータを使用することは、そのような非標準言語にとってより便利であることを示す。
我々の最高のパフォーマンスTunBERTモデルは、下流の3つのタスクすべてにおいて最先端のタスクに到達または改善します。
論文 参考訳(メタデータ) (2021-11-25T15:49:50Z) - Are Multilingual Models the Best Choice for Moderately Under-resourced
Languages? A Comprehensive Assessment for Catalan [0.05277024349608833]
この研究はカタルーニャ語に焦点を当て、中規模のモノリンガル言語モデルが最先端の大規模多言語モデルとどの程度競合するかを探求することを目的としている。
クリーンで高品質なカタルーニャ語コーパス(CaText)を構築し、カタルーニャ語(BERTa)のためのトランスフォーマーベースの言語モデルを訓練し、様々な設定で徹底的に評価する。
その結果,カタルーニャ語理解ベンチマーク(CLUB, Catalan Language Understanding Benchmark)が,オープンリソースとして公開された。
論文 参考訳(メタデータ) (2021-07-16T13:52:01Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。