論文の概要: Toward Micro-Dialect Identification in Diaglossic and Code-Switched
Environments
- arxiv url: http://arxiv.org/abs/2010.04900v2
- Date: Mon, 7 Dec 2020 07:55:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 22:28:17.927264
- Title: Toward Micro-Dialect Identification in Diaglossic and Code-Switched
Environments
- Title(参考訳): diaglossic and code-switched environmentにおけるマイクロダイアレクト同定に向けて
- Authors: Muhammad Abdul-Mageed and Chiyu Zhang and AbdelRahim Elmadany and Lyle
Ungar
- Abstract要約: MARBERTは,細粒度を予測できる印象的な言語モデルである。
MarBERTは9.9%のF1、76倍のマイクロダイアレクトを予測している。
我々の新しい言語モデルはまた、いくつかの外部タスクに新しい最先端技術を確立する。
- 参考スコア(独自算出の注目度): 16.027512442813524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although the prediction of dialects is an important language processing task,
with a wide range of applications, existing work is largely limited to
coarse-grained varieties. Inspired by geolocation research, we propose the
novel task of Micro-Dialect Identification (MDI) and introduce MARBERT, a new
language model with striking abilities to predict a fine-grained variety (as
small as that of a city) given a single, short message. For modeling, we offer
a range of novel spatially and linguistically-motivated multi-task learning
models. To showcase the utility of our models, we introduce a new, large-scale
dataset of Arabic micro-varieties (low-resource) suited to our tasks. MARBERT
predicts micro-dialects with 9.9% F1, ~76X better than a majority class
baseline. Our new language model also establishes new state-of-the-art on
several external tasks.
- Abstract(参考訳): 方言の予測は重要な言語処理タスクであるが、様々な応用があるため、既存の作業は粗い粒度に限られている。
位置情報研究に着想を得て,MDI(Micro-Dialect Identification)の新たな課題を提案し,一つの短いメッセージが与えられた細粒度(都市のそれより小さい)を予測できる印象的な言語モデルであるMARBERTを提案する。
モデリングには,新しい空間的および言語的動機づけのあるマルチタスク学習モデルを提供する。
モデルの有用性を示すために、タスクに適したアラビアのマイクロ変数(低リソース)の大規模データセットを導入します。
MARBERTは9.9%のF1、76倍の精度のマイクロダイアレクトを予測している。
我々の新しい言語モデルはまた、いくつかの外部タスクに新しい最先端技術を確立する。
関連論文リスト
- LLMic: Romanian Foundation Language Model [76.09455151754062]
ルーマニア語に特化して設計された基礎言語モデルである LLMic について述べる。
英語からルーマニア語への翻訳作業において,事前学習後の言語翻訳のための微調整 LLMic が既存の解よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-01-13T22:14:45Z) - LUSIFER: Language Universal Space Integration for Enhanced Multilingual Embeddings with Large Language Models [89.13128402847943]
LUSIFERは,LLMをベースとした多言語タスクの埋め込みモデルに,多言語監視を必要とせずに適用可能なゼロショット方式である。
LUSIFERのアーキテクチャは多言語エンコーダを組み、言語ユニバーサル学習者として機能し、埋め込み固有のタスクに最適化されたLLMベースの埋め込みモデルと組み合わせている。
5つの主要な埋め込みタスク、123の多様なデータセット、14言語にわたるカバレッジを含む新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2025-01-01T15:43:07Z) - A Survey of Small Language Models [104.80308007044634]
小言語モデル (SLM) は, 計算資源の最小化による言語タスクの効率化と性能の向上により, ますます重要になってきている。
本稿では,SLMのアーキテクチャ,トレーニング技術,モデル圧縮技術に着目した総合的な調査を行う。
論文 参考訳(メタデータ) (2024-10-25T23:52:28Z) - Generative Model for Less-Resourced Language with 1 billion parameters [0.0]
GaMS 1B - 10億のパラメータを持つスロベニアの生成モデル。
我々はスロベニア語、クロアチア語、英語に適応した新しいトークンライザを開発した。
我々は,Slovene ベンチマークスイートと生成文単純化タスク SENTA から,いくつかの分類データセットを用いてモデルを評価した。
論文 参考訳(メタデータ) (2024-10-09T13:59:34Z) - LLAVADI: What Matters For Multimodal Large Language Models Distillation [77.73964744238519]
本研究では,新しい効率的なモデル構造を提案するのではなく,スクラッチから小規模MLLMを訓練する。
本研究は, 知識蒸留プロセスにおける学習戦略, モデル選択, 蒸留アルゴリズムに関するものである。
異なるベンチマークと適切な戦略を評価することで、2.7Bの小型モデルでも7Bまたは13Bのパラメータを持つ大型モデルと同等に動作することができる。
論文 参考訳(メタデータ) (2024-07-28T06:10:47Z) - Small Language Models for Application Interactions: A Case Study [18.65781253357305]
本研究では,Small Language Models (SLM) の有効性について検討した。
我々の実験では、小さなデータセットを微調整しても、精度と実行時間の両方において、小さなモデルの方がはるかに大きなモデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-05-23T17:33:32Z) - Scalable Language Model with Generalized Continual Learning [58.700439919096155]
The Joint Adaptive Re-ization (JARe) is integrated with Dynamic Task-related Knowledge Retrieval (DTKR) to enable adapt adjust of language model based on specific downstream task。
提案手法は,様々なバックボーンやベンチマーク上での最先端性能を実証し,最小限の忘れを伴い,フルセットおよび少数ショットのシナリオにおいて効果的な連続学習を実現する。
論文 参考訳(メタデータ) (2024-04-11T04:22:15Z) - Developing and Evaluating Tiny to Medium-Sized Turkish BERT Models [0.0]
本研究は,小型・小型・小型・中規模のトルコのBERTモデルを紹介し,評価する。
我々は、複数の情報源から75GB以上のテキストを含む多様なデータセットでこれらのモデルをトレーニングし、マスク予測、感情分析、ニュース分類、ゼロショット分類など、様々なタスクでテストした。
論文 参考訳(メタデータ) (2023-07-26T12:02:30Z) - On the Universality of Deep COntextual Language Models [15.218264849664715]
ELMOやBERTのような深い文脈言語モデル(LM)は、自然言語処理のランドスケープを支配している。
XLM-RやmBERTのような多言語モデルでは、ゼロショットのクロスリンガル転送が期待できる結果となった。
この最初の成功により、訓練済みのモデルはユニバーサル言語モデルとして使用されている。
論文 参考訳(メタデータ) (2021-09-15T08:00:33Z) - UNKs Everywhere: Adapting Multilingual Language Models to New Scripts [103.79021395138423]
マルチリンガルBERT(mBERT)やXLM-Rのような多言語言語モデルは、様々なNLPタスクに対して最先端の言語間転送性能を提供する。
キャパシティの制限と事前トレーニングデータの大きな差のため、リソース豊富な言語とリソースを対象とする言語には大きなパフォーマンスギャップがある。
本稿では,事前学習した多言語モデルの低リソース言語や未知のスクリプトへの高速かつ効果的な適応を可能にする新しいデータ効率手法を提案する。
論文 参考訳(メタデータ) (2020-12-31T11:37:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。