論文の概要: Deep Multi-Task Model for Sarcasm Detection and Sentiment Analysis in
Arabic Language
- arxiv url: http://arxiv.org/abs/2106.12488v1
- Date: Wed, 23 Jun 2021 16:00:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 18:14:33.267776
- Title: Deep Multi-Task Model for Sarcasm Detection and Sentiment Analysis in
Arabic Language
- Title(参考訳): アラビア語におけるサーカズム検出と感情分析のための深部マルチタスクモデル
- Authors: Abdelkader El Mahdaouy, Abdellah El Mekki, Kabil Essefar, Nabil El
Mamoun, Ismail Berrada, Ahmed Khoumsi
- Abstract要約: 本稿では,2つのタスク間の知識相互作用を可能にする,エンドツーエンドの深層マルチタスク学習(MTL)モデルを提案する。
その結果,提案手法はアラビア感性分析(SA)とサルカズム検出サブタスクにおいて,単一タスクモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 1.1254693939127909
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The prominence of figurative language devices, such as sarcasm and irony,
poses serious challenges for Arabic Sentiment Analysis (SA). While previous
research works tackle SA and sarcasm detection separately, this paper
introduces an end-to-end deep Multi-Task Learning (MTL) model, allowing
knowledge interaction between the two tasks. Our MTL model's architecture
consists of a Bidirectional Encoder Representation from Transformers (BERT)
model, a multi-task attention interaction module, and two task classifiers. The
overall obtained results show that our proposed model outperforms its
single-task counterparts on both SA and sarcasm detection sub-tasks.
- Abstract(参考訳): 皮肉や皮肉といった比喩的言語装置の普及は、アラビア語の知覚分析(SA)に深刻な課題をもたらす。
従来の研究ではSAとsarcasm検出が別々に行われているが,本研究では,両タスク間の知識相互作用を可能にする,エンドツーエンドの深層多タスク学習(MTL)モデルを提案する。
我々のMTLモデルは、変換器(BERT)モデルからの双方向エンコーダ表現、マルチタスクアテンション相互作用モジュール、および2つのタスク分類器で構成されている。
以上の結果から, 提案手法は, SAおよびsarcasm検出サブタスクにおいて, 単タスクモデルよりも優れていることがわかった。
関連論文リスト
- VEGA: Learning Interleaved Image-Text Comprehension in Vision-Language Large Models [76.94378391979228]
我々は、Interleaved Image-Text (IITC) と呼ばれる、より要求の多い新しいタスクを導入する。
この課題は、画像とテキストの両方の過剰な要素を識別・無視し、質問に正確に答えるためにモデルに挑戦する。
このタスクを支援するために、科学コンテンツに関するIITCタスクに適した新しいVEGAデータセットを構築し、サブタスクである画像テキストアソシエーション(ITA)を考案した。
論文 参考訳(メタデータ) (2024-06-14T17:59:40Z) - Multitask Multimodal Prompted Training for Interactive Embodied Task
Completion [48.69347134411864]
Embodied MultiModal Agent (EMMA) はエンコーダとデコーダの統一モデルである。
すべてのタスクをテキスト生成として統一することで、EMMAはタスク間の転送を容易にするアクション言語を学ぶ。
論文 参考訳(メタデータ) (2023-11-07T15:27:52Z) - Musketeer: Joint Training for Multi-task Vision Language Model with Task Explanation Prompts [75.75548749888029]
本稿では,全てのタスクに対してパラメータを共同で訓練し,複数の異種タスク間で完全に共有する視覚言語モデルを提案する。
単一のモデルで、Musteteerは単一のタスクでトレーニングされた強いベースラインに匹敵する結果を得る。
論文 参考訳(メタデータ) (2023-05-11T17:57:49Z) - MaMMUT: A Simple Architecture for Joint Learning for MultiModal Tasks [59.09343552273045]
本稿では,これらの異なる視覚言語タスクの協調学習に驚くほど有効であるマルチモーダルタスクのためのデコーダのみのモデルを提案する。
これらの多様な目的の合同学習は単純で効果的であり、これらのタスク間でのモデルの重量共有を最大化することを示した。
我々のモデルは,画像テキストとテキスト画像検索,ビデオ質問応答,オープン語彙検出タスクにおける技術の現状を達成し,より大きく,より広範囲に訓練された基礎モデルよりも優れている。
論文 参考訳(メタデータ) (2023-03-29T16:42:30Z) - Multitasking Models are Robust to Structural Failure: A Neural Model for
Bilingual Cognitive Reserve [78.3500985535601]
マルチタスク学習とニューロン障害に対する堅牢性との間には,驚くべき関連性がある。
実験の結果,バイリンガル言語モデルは様々なニューロン摂動下で高い性能を維持していることがわかった。
線形表現学習を数学的に解析することにより,このロバスト性を理論的に正当化する。
論文 参考訳(メタデータ) (2022-10-20T22:23:27Z) - CS-UM6P at SemEval-2022 Task 6: Transformer-based Models for Intended
Sarcasm Detection in English and Arabic [6.221019624345408]
サルカズム(Sarcasm)は、文の意図する意味が文字通りの意味と異なる、図形言語の一種である。
本稿では,英語およびアラビア語におけるサルカズム検出タスクへの参加システムについて述べる。
論文 参考訳(メタデータ) (2022-06-16T19:14:54Z) - BERT-based Multi-Task Model for Country and Province Level Modern
Standard Arabic and Dialectal Arabic Identification [1.1254693939127909]
本稿では,現代標準アラビア語(MSA)と方言アラビア語(DA)の国レベルおよび州レベルの識別のための第2次NADI共有課題に提出したディープラーニングに基づくシステムについて述べる。
その結果,MTLモデルは,ほとんどのサブタスクにおいて単一タスクモデルよりも優れていた。
論文 参考訳(メタデータ) (2021-06-23T16:07:58Z) - Combining Context-Free and Contextualized Representations for Arabic
Sarcasm Detection and Sentiment Identification [0.0]
本論文では,SPPU-AASM チームによる WANLP ArSarcasm shared-task 2021 の提出を示唆する。
提案方式は, 皮肉および感情検出タスクに対して, F1-sarcastic score の 0.62 と F-PN score の 0.715 をそれぞれ達成する。
論文 参考訳(メタデータ) (2021-03-09T19:39:43Z) - AraBERT and Farasa Segmentation Based Approach For Sarcasm and Sentiment
Detection in Arabic Tweets [0.0]
サブタスクの1つは、あるアラビア語のツイートが本質的にサッカスティックであるかどうかを識別するシステムを開発することです。
もう1つは、アラビア語のツイートの感情を特定することを目的としている。
最終アプローチはSarcasmとSentiment Detectionのサブタスクでそれぞれ7位と4位にランクされた。
論文 参考訳(メタデータ) (2021-03-02T12:33:50Z) - SPLAT: Speech-Language Joint Pre-Training for Spoken Language
Understanding [61.02342238771685]
音声理解には、入力音響信号を解析してその言語内容を理解し、予測するモデルが必要である。
大規模無注釈音声やテキストからリッチな表現を学習するために,様々な事前学習手法が提案されている。
音声と言語モジュールを協調的に事前学習するための,新しい半教師付き学習フレームワークであるSPLATを提案する。
論文 参考訳(メタデータ) (2020-10-05T19:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。