論文の概要: Plumeria at SemEval-2022 Task 6: Robust Approaches for Sarcasm Detection
for English and Arabic Using Transformers and Data Augmentation
- arxiv url: http://arxiv.org/abs/2203.04111v1
- Date: Tue, 8 Mar 2022 14:33:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 13:27:13.538337
- Title: Plumeria at SemEval-2022 Task 6: Robust Approaches for Sarcasm Detection
for English and Arabic Using Transformers and Data Augmentation
- Title(参考訳): semeval-2022タスク6: トランスフォーマーとデータ拡張を用いた英語とアラビア語のサーカズム検出のためのロバストなアプローチ
- Authors: Shubham Kumar Nigam and Mosab Shaheen
- Abstract要約: 本稿では,サルカズム検出に関するSemEval-2022タスク6と,英語とアラビア語の5つのサブタスクについて述べる。
サルカズムの検出には,自然言語処理(NLP)分野において,特徴工学を必要とせず,トランスフォーマに基づく深層学習技術を用いた。
- 参考スコア(独自算出の注目度): 0.951828574518325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes our submission to SemEval-2022 Task 6 on sarcasm
detection and its five subtasks for English and Arabic. Sarcasm conveys a
meaning which contradicts the literal meaning, and it is mainly found on social
networks. It has a significant role in understanding the intention of the user.
For detecting sarcasm, we used deep learning techniques based on transformers
due to its success in the field of Natural Language Processing (NLP) without
the need for feature engineering. The datasets were taken from tweets. We
created new datasets by augmenting with external data or by using word
embeddings and repetition of instances. Experiments were done on the datasets
with different types of preprocessing because it is crucial in this task. The
rank of our team was consistent across four subtasks (fourth rank in three
subtasks and sixth rank in one subtask); whereas other teams might be in the
top ranks for some subtasks but rank drastically less in other subtasks. This
implies the robustness and stability of the models and the techniques we used.
- Abstract(参考訳): 本稿では,サルカズム検出に関するSemEval-2022タスク6と,英語とアラビア語の5つのサブタスクについて述べる。
サルカズムは文字通りの意味と矛盾する意味を伝えており、主にソーシャルネットワークで見られる。
ユーザの意図を理解する上で重要な役割を担っている。
サルカズムの検出には,自然言語処理(NLP)分野において,特徴工学を必要とせず,トランスフォーマに基づく深層学習技術を用いた。
データセットはツイートから取られた。
外部データを拡張したり、ワード埋め込みやインスタンスの繰り返しを使って新しいデータセットを作成しました。
このタスクでは重要なので、さまざまなプリプロセッシングタイプのデータセットで実験が行われた。
私たちのチームのランクは4つのサブタスク(3つのサブタスクの第4位と1つのサブタスクの第6位)で一貫しています。
これはモデルと私たちが使ったテクニックの堅牢性と安定性を意味します。
関連論文リスト
- Rethinking and Improving Multi-task Learning for End-to-end Speech
Translation [51.713683037303035]
異なる時間とモジュールを考慮したタスク間の整合性について検討する。
テキストエンコーダは、主にクロスモーダル変換を容易にするが、音声におけるノイズの存在は、テキストと音声表現の一貫性を妨げる。
長さと表現の差を軽減し,モーダルギャップを橋渡しする,STタスクのための改良型マルチタスク学習(IMTL)手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T08:48:46Z) - Findings of the WMT 2022 Shared Task on Translation Suggestion [63.457874930232926]
We report the results of the first edition of the WMT shared task on Translation Suggestion。
このタスクは、機械翻訳(MT)によって生成された文書全体に対して、特定の単語やフレーズの代替手段を提供することを目的としている。
2つのサブタスク、すなわち単純翻訳提案と暗示付き翻訳提案で構成されている。
論文 参考訳(メタデータ) (2022-11-30T03:48:36Z) - Sarcasm Detection Framework Using Emotion and Sentiment Features [62.997667081978825]
本研究では,感情と感情の特徴を取り入れたモデルを提案する。
我々のアプローチは、ソーシャルネットワークプラットフォームとオンラインメディアの4つのデータセットに対して、最先端の結果を得た。
論文 参考訳(メタデータ) (2022-11-23T15:14:44Z) - Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5 [50.574918785575655]
2つのタスクのパフォーマンス向上という文脈において、逐次微調整とマルチタスク学習のモデルを比較した。
この結果から,2つのタスクのうち,第1のタスクにおいて逐次マルチタスク学習は良好に調整できるが,第2のタスクでは性能が低下し,過度な適合に苦しむことが明らかとなった。
論文 参考訳(メタデータ) (2022-10-31T13:26:08Z) - CS-UM6P at SemEval-2022 Task 6: Transformer-based Models for Intended
Sarcasm Detection in English and Arabic [6.221019624345408]
サルカズム(Sarcasm)は、文の意図する意味が文字通りの意味と異なる、図形言語の一種である。
本稿では,英語およびアラビア語におけるサルカズム検出タスクへの参加システムについて述べる。
論文 参考訳(メタデータ) (2022-06-16T19:14:54Z) - Learning Language-Conditioned Robot Behavior from Offline Data and
Crowd-Sourced Annotation [80.29069988090912]
本研究では,ロボットインタラクションの大規模なオフラインデータセットから視覚に基づく操作タスクを学習する問題について検討する。
クラウドソースの自然言語ラベルを用いたオフラインロボットデータセットの活用を提案する。
提案手法は目標画像仕様と言語条件付き模倣技術の両方を25%以上上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-02T17:42:13Z) - Sarcasm Detection in Twitter -- Performance Impact when using Data
Augmentation: Word Embeddings [0.0]
サルカスム(Sarcasm)は、通常、誰かをモックしたり、困惑させたり、ユーモラスな目的のために使われる言葉である。
本稿では,RoBERTaを用いたTwitterにおける皮肉識別のコンテキストモデルを提案する。
サーカシックとラベル付けされたデータの20%を増やすために、データ拡張を使用する場合、iSarcasmデータセットで3.2%の性能向上を実現した。
論文 参考訳(メタデータ) (2021-08-23T04:24:12Z) - MagicPai at SemEval-2021 Task 7: Method for Detecting and Rating Humor
Based on Multi-Task Adversarial Training [4.691435917434472]
本稿では,MagicPaiによるSemEval 2021 Task 7, HaHackathon: Detecting and Rating Humor and Offenseのシステムについて述べる。
この課題は、テキストがユーモラスか、いかにユーモラスかを検出することである。
主に、逆例に基づくマルチタスク学習モデルであるソリューションを紹介します。
論文 参考訳(メタデータ) (2021-04-21T03:23:02Z) - Deep Learning for Text Style Transfer: A Survey [71.8870854396927]
テキストスタイル転送は、生成したテキストの特定の属性を制御することを目的として、自然言語生成において重要なタスクである。
2017年の最初のニューラルテキストスタイル転送作業以降,100以上の代表的な記事を対象とした,ニューラルテキストスタイル転送の研究の体系的な調査を行う。
タスクの定式化、既存のデータセットとサブタスク、評価、並列データと非並列データの存在下での豊富な方法論について論じる。
論文 参考訳(メタデータ) (2020-11-01T04:04:43Z) - IITK-RSA at SemEval-2020 Task 5: Detecting Counterfactuals [3.0396370700420063]
本稿では,SemEval-2020のタスク5への取り組みについて述べる。
そのタスクは、反事実として知られるテキスト表現のクラスを検出することを含んでいた。
カウンターファクトステートメントは、発生しなかった、あるいは発生できなかった事象と、そのような事象の起こりうる影響を記述している。
論文 参考訳(メタデータ) (2020-07-21T14:45:53Z) - Sarcasm Detection using Context Separators in Online Discourse [3.655021726150369]
サルカズム(Sarcasm)は、意味が暗黙的に伝えられる複雑な形態の言語である。
本研究では,RoBERTa_largeを用いて2つのデータセットの皮肉を検出する。
また,文脈単語埋め込みモデルの性能向上における文脈の重要性を主張する。
論文 参考訳(メタデータ) (2020-06-01T10:52:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。