論文の概要: BERT-based Multi-Task Model for Country and Province Level Modern
Standard Arabic and Dialectal Arabic Identification
- arxiv url: http://arxiv.org/abs/2106.12495v1
- Date: Wed, 23 Jun 2021 16:07:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 17:44:50.952699
- Title: BERT-based Multi-Task Model for Country and Province Level Modern
Standard Arabic and Dialectal Arabic Identification
- Title(参考訳): 国・州レベルの現代アラビア語標準および方言アラビア語識別のためのBERTに基づくマルチタスクモデル
- Authors: Abdellah El Mekki, Abdelkader El Mahdaouy, Kabil Essefar, Nabil El
Mamoun, Ismail Berrada, Ahmed Khoumsi
- Abstract要約: 本稿では,現代標準アラビア語(MSA)と方言アラビア語(DA)の国レベルおよび州レベルの識別のための第2次NADI共有課題に提出したディープラーニングに基づくシステムについて述べる。
その結果,MTLモデルは,ほとんどのサブタスクにおいて単一タスクモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 1.1254693939127909
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dialect and standard language identification are crucial tasks for many
Arabic natural language processing applications. In this paper, we present our
deep learning-based system, submitted to the second NADI shared task for
country-level and province-level identification of Modern Standard Arabic (MSA)
and Dialectal Arabic (DA). The system is based on an end-to-end deep Multi-Task
Learning (MTL) model to tackle both country-level and province-level MSA/DA
identification. The latter MTL model consists of a shared Bidirectional Encoder
Representation Transformers (BERT) encoder, two task-specific attention layers,
and two classifiers. Our key idea is to leverage both the task-discriminative
and the inter-task shared features for country and province MSA/DA
identification. The obtained results show that our MTL model outperforms
single-task models on most subtasks.
- Abstract(参考訳): 方言と標準言語識別は多くのアラビア語自然言語処理アプリケーションにとって重要なタスクである。
本稿では,現代標準アラビア語 (msa) と方言アラビア語 (da) の国レベルと州レベルを識別するための第2のnadi共通課題である深層学習に基づくシステムを提案する。
このシステムは、国レベルと州レベルのmsa/da識別に取り組むために、エンドツーエンドのディープマルチタスク学習(mtl)モデルに基づいている。
後者のMTLモデルは、共通の双方向エンコーダ表現変換器(BERT)エンコーダ、2つのタスク固有の注意層、2つの分類器で構成される。
私たちのキーとなる考え方は、タスク識別とタスク間共有機能の両方を活用することです。
その結果,MTLモデルは,ほとんどのサブタスクにおいて単一タスクモデルよりも優れていた。
関連論文リスト
- Fine-tuning Large Language Models for Multigenerator, Multidomain, and
Multilingual Machine-Generated Text Detection [3.6433784431752434]
SemEval-2024 Task 8は、多種多様な大言語モデル(LLM)から機械生成テキストを特定するという課題を導入する
タスクは3つのサブタスクから構成される: 単言語および多言語におけるバイナリ分類(Subtask A)、多クラス分類(Subtask B)、混合テキスト検出(Subtask C)。
論文 参考訳(メタデータ) (2024-01-22T19:39:05Z) - LION : Empowering Multimodal Large Language Model with Dual-Level Visual
Knowledge [58.82222646803248]
MLLM(Multimodal Large Language Models)は、マルチモーダル信号の知覚と理解が可能なLLMを提供する。
既存のMLLMの多くは、大まかに整列された画像テキストペアで事前訓練された視覚エンコーダを採用しており、視覚知識の抽出と推論が不十分である。
本稿では,2段階の視覚的知識を注入することによってMLLMを増強する,デュアルレベルvIsual knedgeOwl eNhanced Multimodal Large Language Model (LION)を提案する。
論文 参考訳(メタデータ) (2023-11-20T15:56:44Z) - Multitask Multimodal Prompted Training for Interactive Embodied Task
Completion [48.69347134411864]
Embodied MultiModal Agent (EMMA) はエンコーダとデコーダの統一モデルである。
すべてのタスクをテキスト生成として統一することで、EMMAはタスク間の転送を容易にするアクション言語を学ぶ。
論文 参考訳(メタデータ) (2023-11-07T15:27:52Z) - CUNI Submission to MRL 2023 Shared Task on Multi-lingual Multi-task
Information Retrieval [5.97515243922116]
本稿では,多言語多タスク情報検索におけるMRL2023共有タスクのためのチャールズ大学システムを提案する。
共有タスクの目的は、いくつかの未表現言語で名前付きエンティティ認識と質問応答のためのシステムを開発することである。
両方のサブタスクに対する私たちのソリューションは、翻訳テストのアプローチに依存しています。
論文 参考訳(メタデータ) (2023-10-25T10:22:49Z) - Making Small Language Models Better Multi-task Learners with
Mixture-of-Task-Adapters [13.6682552098234]
大規模言語モデル(LLM)は、さまざまな自然言語処理(NLP)タスクにおいて、驚くべきゼロショット学習性能を達成した。
マルチタスク学習者に対して,小型言語モデルに基づくmixTure-of-task-adapterを効果的に構築するシステムであるALTERを提案する。
少ない計算コストでアダプタ間の協調を最適化する2段階の学習手法を提案する。
論文 参考訳(メタデータ) (2023-09-20T03:39:56Z) - Task-Based MoE for Multitask Multilingual Machine Translation [58.20896429151824]
Mixture-of-experts (MoE)アーキテクチャは、多くのアプリケーションで深層モデルのトレーニングにおいて、多様なタスクのための強力な手法であることが証明されている。
本研究では,タスク情報を異なる粒度レベルでMoEモデルに組み込む新しい手法を,動的タスクベースアダプタの共有により設計する。
論文 参考訳(メタデータ) (2023-08-30T05:41:29Z) - Cross-Lingual NER for Financial Transaction Data in Low-Resource
Languages [70.25418443146435]
半構造化テキストデータにおける言語間名前認識のための効率的なモデリングフレームワークを提案する。
我々は2つの独立したSMSデータセットを英語とアラビア語で使用し、それぞれが半構造化された銀行取引情報を持っている。
わずか30のラベル付きサンプルにアクセスすることで、我々のモデルは、英語からアラビア語までの商人、金額、その他の分野の認識を一般化することができる。
論文 参考訳(メタデータ) (2023-07-16T00:45:42Z) - MULTI3NLU++: A Multilingual, Multi-Intent, Multi-Domain Dataset for
Natural Language Understanding in Task-Oriented Dialogue [115.32009638844059]
英語のみのNLU++データセットを拡張して、手動による翻訳を高、中、低リソース言語に含めます。
Multi3NLU++はそのマルチインテント特性のため、複雑で自然なユーザ目標を表現している。
我々はMulti3NLU++を用いて、インテント検出やスロットラベリングといった自然言語理解タスクに対して、最先端の多言語モデルをベンチマークする。
論文 参考訳(メタデータ) (2022-12-20T17:34:25Z) - A Variational Hierarchical Model for Neural Cross-Lingual Summarization [85.44969140204026]
言語間の要約(英: cross-lingual summarization)とは、ある言語の文書を別の言語の要約に変換することである。
CLSに関する既存の研究は主にパイプライン手法の利用やエンドツーエンドモデルの共同トレーニングに重点を置いている。
条件付き変分自動エンコーダに基づくCLSタスクの階層モデルを提案する。
論文 参考訳(メタデータ) (2022-03-08T02:46:11Z) - Deep Multi-Task Model for Sarcasm Detection and Sentiment Analysis in
Arabic Language [1.1254693939127909]
本稿では,2つのタスク間の知識相互作用を可能にする,エンドツーエンドの深層マルチタスク学習(MTL)モデルを提案する。
その結果,提案手法はアラビア感性分析(SA)とサルカズム検出サブタスクにおいて,単一タスクモデルよりも優れていた。
論文 参考訳(メタデータ) (2021-06-23T16:00:32Z) - Multi-Dialect Arabic BERT for Country-Level Dialect Identification [1.2928709656541642]
提案する実験と、競合するチームであるMawdoo3 AIによって開発されたモデルについて述べる。
方言識別サブタスクは、アラブ21カ国すべてをカバーする21,000の国レベルのラベル付きつぶやきを提供する。
優勝したソリューションの事前学習された言語モデルコンポーネントを、Multi-dialect-Arabic-BERTモデルの名称で公開します。
論文 参考訳(メタデータ) (2020-07-10T21:11:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。