論文の概要: Introducing BEREL: BERT Embeddings for Rabbinic-Encoded Language
- arxiv url: http://arxiv.org/abs/2208.01875v1
- Date: Wed, 3 Aug 2022 06:59:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 13:25:34.332894
- Title: Introducing BEREL: BERT Embeddings for Rabbinic-Encoded Language
- Title(参考訳): BEREL: Rabbinic-Encoded言語のためのBERT埋め込み
- Authors: Avi Shmidman, Joshua Guedalia, Shaltiel Shmidman, Cheyn Shmuel
Shmidman, Eli Handel, Moshe Koppel
- Abstract要約: 本稿では,ラビニク・ヘブライ語のための事前学習型言語モデル(PLM)をBelelと呼ぶ。
ベレルは現代ヘブライ語のテキストで教育を受けており、ラビニク・ヘブライ語からその語彙的、形態的、構文的、正書法的な規範で大きく分かれている。
我々は、ヘブライ語ホモグラフの挑戦集合を通して、ラビ語文におけるベレルの優越性を実証する。
- 参考スコア(独自算出の注目度): 3.0663766446277845
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a new pre-trained language model (PLM) for Rabbinic Hebrew, termed
Berel (BERT Embeddings for Rabbinic-Encoded Language). Whilst other PLMs exist
for processing Hebrew texts (e.g., HeBERT, AlephBert), they are all trained on
modern Hebrew texts, which diverges substantially from Rabbinic Hebrew in terms
of its lexicographical, morphological, syntactic and orthographic norms. We
demonstrate the superiority of Berel on Rabbinic texts via a challenge set of
Hebrew homographs. We release the new model and homograph challenge set for
unrestricted use.
- Abstract(参考訳): 本稿では,Belel(BERT Embeddings for Rabbinic-Encoded Language)と呼ばれる,Rabinic Hebrewのための事前学習型言語モデル(PLM)を提案する。
他の PLM はヘブライ語のテキスト(例えば HeBERT や AlephBert など)を処理するために存在するが、これらは全て現代のヘブライ語のテキストで訓練されている。
我々は、ヘブライ語ホモグラフの挑戦集合を通して、ラビ語文におけるベレルの優越性を実証する。
制約のない使用のために、新しいモデルとホモグラフチャレンジセットをリリースします。
関連論文リスト
- MenakBERT -- Hebrew Diacriticizer [0.13654846342364307]
我々はヘブライ語文で事前訓練された文字レベル変換器であるMenakBERTを紹介し、ヘブライ語文のダイアクリティカルマークを生成するよう微調整した。
本稿では,音声タグ付けなどのタスクへの移動を記述するためのモデルがいかに微調整されているかを示す。
論文 参考訳(メタデータ) (2024-10-03T12:07:34Z) - Modular Adaptation of Multilingual Encoders to Written Swiss German
Dialect [52.1701152610258]
モジュラーエンコーダにスイスドイツ語のアダプタを加えると、完全なモノリシックな適応性能の97.5%が達成される。
標準ドイツ語の問合せを与えられたスイスドイツ語の文を検索する作業において、文字レベルのモデルを適用することは、他の適応戦略よりも効果的である。
論文 参考訳(メタデータ) (2024-01-25T18:59:32Z) - Introducing DictaLM -- A Large Generative Language Model for Modern
Hebrew [2.1547347528250875]
現代ヘブライ語に合わせた大規模言語モデルであるDictaLMについて紹介する。
ヘブライ語における研究・開発促進の取り組みとして,創造コモンズライセンスの下で基礎モデルと教科モデルの両方をリリースする。
論文 参考訳(メタデータ) (2023-09-25T22:42:09Z) - Restoring Hebrew Diacritics Without a Dictionary [4.733760777271136]
我々は,平易なダイアクリッドテキスト以外の人為的なリソースを使わずにヘブライ語の文字をダイアクリットすることは可能であることを示す。
より複雑なキュレーション依存システムと同等に機能する2層キャラクタレベルLSTMであるNAKDIMONを紹介します。
論文 参考訳(メタデータ) (2021-05-11T17:23:29Z) - AlephBERT:A Hebrew Large Pre-Trained Language Model to Start-off your
Hebrew NLP Application With [7.345047237652976]
大規模プリトレーニング言語モデル(PLM)は、言語理解技術の発展においてユビキタスになっています。
PLMを用いた英語の進歩は前例がないが、ヘブライ語でのPLMの使用の進展は少ない。
論文 参考訳(メタデータ) (2021-04-08T20:51:29Z) - Learning Contextualised Cross-lingual Word Embeddings and Alignments for
Extremely Low-Resource Languages Using Parallel Corpora [63.5286019659504]
そこで本稿では,小さな並列コーパスに基づく文脈型言語間単語埋め込み学習手法を提案する。
本手法は,入力文の翻訳と再構成を同時に行うLSTMエンコーダデコーダモデルを用いて単語埋め込みを実現する。
論文 参考訳(メタデータ) (2020-10-27T22:24:01Z) - It's not Greek to mBERT: Inducing Word-Level Translations from
Multilingual BERT [54.84185432755821]
mBERT (multilingual BERT) は、言語間での移動を可能にするリッチな言語間表現を学習する。
我々はmBERTに埋め込まれた単語レベルの翻訳情報について検討し、微調整なしで優れた翻訳能力を示す2つの簡単な方法を提案する。
論文 参考訳(メタデータ) (2020-10-16T09:49:32Z) - Nakdan: Professional Hebrew Diacritizer [43.58927359102219]
ヘブライ語テキストの自動発音システムを提案する。
このシステムは、現代のニューラルモデルと慎重にキュレートされた宣言的言語知識を組み合わせる。
このシステムは現代ヘブライ語、ラビ語ヘブライ語、詩語ヘブライ語をサポートする。
論文 参考訳(メタデータ) (2020-05-07T08:15:55Z) - Revisiting Pre-Trained Models for Chinese Natural Language Processing [73.65780892128389]
我々は、中国語の事前学習言語モデルを再検討し、英語以外の言語での有効性について検討する。
また,RoBERTaを改良したMacBERTモデルを提案する。
論文 参考訳(メタデータ) (2020-04-29T02:08:30Z) - PALM: Pre-training an Autoencoding&Autoregressive Language Model for
Context-conditioned Generation [92.7366819044397]
自己指導型事前学習は、自然言語の理解と生成のための強力な技術として登場した。
本研究は,大規模未ラベルコーパス上で自己エンコーディングと自己回帰言語モデルを共同で事前学習する新しいスキームをPALMに提示する。
広範な実験により、PALMは様々な言語生成ベンチマークにおいて、新しい最先端の結果を達成することが示されている。
論文 参考訳(メタデータ) (2020-04-14T06:25:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。