論文の概要: UWB at WASSA-2024 Shared Task 2: Cross-lingual Emotion Detection
- arxiv url: http://arxiv.org/abs/2508.08650v1
- Date: Tue, 12 Aug 2025 05:30:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.31099
- Title: UWB at WASSA-2024 Shared Task 2: Cross-lingual Emotion Detection
- Title(参考訳): UWB at WASSA-2024 Shared Task 2: Cross-lingual Emotion Detection (英語)
- Authors: Jakub Šmíd, Pavel Přibáň, Pavel Král,
- Abstract要約: 本稿では,WASSA-2024クロスランガル感情検出共有タスクのためのシステムを提案する。
タスクは2つのサブタスクから構成される: 1つは、与えられた5つの言語のうちの1つのツイートの6つの可能なクラスから感情ラベルを評価し、もう1つは、検出された感情をバイナリおよび数値形式で引き起こす単語を予測する。
提案手法は,XLM-R や mT5 などの低ランクアダプタ (LoRA) と多言語トランスフォーマーベースモデルを用いた微調整型量子化大言語モデル,特に Orca2 を中心に展開する。
- 参考スコア(独自算出の注目度): 0.8602553195689511
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents our system built for the WASSA-2024 Cross-lingual Emotion Detection Shared Task. The task consists of two subtasks: first, to assess an emotion label from six possible classes for a given tweet in one of five languages, and second, to predict words triggering the detected emotions in binary and numerical formats. Our proposed approach revolves around fine-tuning quantized large language models, specifically Orca~2, with low-rank adapters (LoRA) and multilingual Transformer-based models, such as XLM-R and mT5. We enhance performance through machine translation for both subtasks and trigger word switching for the second subtask. The system achieves excellent performance, ranking 1st in numerical trigger words detection, 3rd in binary trigger words detection, and 7th in emotion detection.
- Abstract(参考訳): 本稿では,WASSA-2024クロスランガル感情検出共有タスクのためのシステムを提案する。
タスクは2つのサブタスクから構成される: 1つは、与えられた5つの言語のうちの1つのツイートの6つの可能なクラスから感情ラベルを評価し、もう1つは、検出された感情をバイナリおよび数値形式で引き起こす単語を予測する。
提案手法は,XLM-R や mT5 などの低ランクアダプタ (LoRA) と多言語トランスフォーマーベースモデルを用いた微調整型量子化大言語モデル,特に Orca~2 を中心に展開する。
サブタスクの機械翻訳と第2サブタスクのトリガ語切替による性能向上を図る。
本システムは,数値トリガー語検出において第1位,バイナリトリガー語検出では第3位,感情検出では第7位という優れた性能を実現する。
関連論文リスト
- JNLP at SemEval-2025 Task 11: Cross-Lingual Multi-Label Emotion Detection Using Generative Models [3.1605924602008373]
本研究では,SemEval-2025 Task 11: Bridging the Gap in Text-Based Emotion Detectionについて述べる。
本研究は,(1)トラックA:マルチラベル感情検出,(2)トラックB:感情強度の2つのサブトラックに焦点を当てた。
入力を対応する感情ラベルに直接マッピングするベースメソッドと、入力テキストと各感情カテゴリの関係を個別にモデル化するペアワイズ手法の2つの方法を提案する。
論文 参考訳(メタデータ) (2025-05-19T15:24:53Z) - SemEval-2025 Task 11: Bridging the Gap in Text-Based Emotion Detection [76.18321723846616]
タスクは7つの異なる言語ファミリーから30以上の言語をカバーしている。
データインスタンスは6つの感情クラスでマルチラベルされており、感情の強さに注釈を付けた11言語にデータセットが追加されている。
参加者は, (a) マルチラベル感情検出, (b) 感情強度スコア検出, (c) 言語間感情検出の3つのトラックでラベルの予測を依頼された。
論文 参考訳(メタデータ) (2025-03-10T12:49:31Z) - SemEval-2024 Task 8: Multidomain, Multimodel and Multilingual Machine-Generated Text Detection [68.858931667807]
Subtask Aは、テキストが人間によって書かれたか、機械によって生成されたかを決定するバイナリ分類タスクである。
サブタスクBは、テキストの正確なソースを検出し、それが人間によって書かれたか、特定のLCMによって生成されたかを認識する。
Subtask Cは、著者が人間から機械へ遷移するテキスト内の変化点を特定することを目的としている。
論文 参考訳(メタデータ) (2024-04-22T13:56:07Z) - SemEval 2024 -- Task 10: Emotion Discovery and Reasoning its Flip in
Conversation (EDiReF) [61.49972925493912]
SemEval-2024 Task 10は、コードミキシングされた対話における感情の識別に焦点を当てた共有タスクである。
このタスクは3つの異なるサブタスクから構成される - コードミックス対話のための会話における感情認識、コードミックス対話のための感情フリップ推論、および英語対話のための感情フリップ推論である。
このタスクには84人の参加者が参加し、各サブタスクのF1スコアは0.70、0.79、0.76に達した。
論文 参考訳(メタデータ) (2024-02-29T08:20:06Z) - Cascaded Cross-Modal Transformer for Audio-Textual Classification [30.643750999989233]
本稿では,自動音声認識(ASR)モデルを用いた音声の書き起こしにより,マルチモーダル表現の固有値を活用することを提案する。
これにより、各データサンプルに対する音声テキスト(マルチモーダル)表現が得られる。
我々は、ACM Multimedia 2023 Computational Paralinguistics Challenge の Requests Sub-Challenge において、勝利のソリューションであると宣言された。
論文 参考訳(メタデータ) (2024-01-15T10:18:08Z) - Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5 [50.574918785575655]
2つのタスクのパフォーマンス向上という文脈において、逐次微調整とマルチタスク学習のモデルを比較した。
この結果から,2つのタスクのうち,第1のタスクにおいて逐次マルチタスク学習は良好に調整できるが,第2のタスクでは性能が低下し,過度な適合に苦しむことが明らかとなった。
論文 参考訳(メタデータ) (2022-10-31T13:26:08Z) - Multi-Modal Emotion Detection with Transfer Learning [0.7629717457706324]
音声における感情検出は、単語間の複雑な相互依存と、それらが話される方法によって難しい課題である。
本稿では、まず音声とテキストの関連タスクから学習を伝達し、堅牢なニューラル埋め込みを生成するマルチモーダルアプローチを提案する。
我々は、TDNN単独、各層からの音声埋め込み、テキスト埋め込み単独、および各組み合わせの予測能力を評価する。
論文 参考訳(メタデータ) (2020-11-13T18:58:59Z) - VECO: Variable and Flexible Cross-lingual Pre-training for Language
Understanding and Generation [77.82373082024934]
我々はTransformerエンコーダにクロスアテンションモジュールを挿入し、言語間の相互依存を明確に構築する。
独自の言語でコンテキストにのみ条件付けされたマスク付き単語の予測の退化を効果的に回避することができる。
提案した言語間モデルでは,XTREMEベンチマークのさまざまな言語間理解タスクに対して,最先端の新たな結果が提供される。
論文 参考訳(メタデータ) (2020-10-30T03:41:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。