論文の概要: Chinchunmei at SemEval-2025 Task 11: Boosting the Large Language Model's Capability of Emotion Perception using Contrastive Learning
- arxiv url: http://arxiv.org/abs/2507.15714v1
- Date: Mon, 21 Jul 2025 15:25:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.457052
- Title: Chinchunmei at SemEval-2025 Task 11: Boosting the Large Language Model's Capability of Emotion Perception using Contrastive Learning
- Title(参考訳): SemEval-2025タスク11:コントラスト学習を用いた大規模言語モデルの感情知覚能力向上
- Authors: Tian Li, Yujian Sun, Huizhi Liang,
- Abstract要約: SemEval-2025 Task 11 テキストベース感情検出のギャップを埋めることにより、28以上の言語にまたがる感情認識の課題が導入された。
このコンペティションは、感情表現の多様性と背景の変化によって引き起こされる課題に対処する、より高度なアプローチを模索することを奨励する。
本システムでは、トラックAで9位、トラックBで6位、他の言語でトップレベルのパフォーマンスシステムでは1位にランクインした。
- 参考スコア(独自算出の注目度): 7.7913577883363425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The SemEval-2025 Task 11, Bridging the Gap in Text-Based Emotion Detection, introduces an emotion recognition challenge spanning over 28 languages. This competition encourages researchers to explore more advanced approaches to address the challenges posed by the diversity of emotional expressions and background variations. It features two tracks: multi-label classification (Track A) and emotion intensity prediction (Track B), covering six emotion categories: anger, fear, joy, sadness, surprise, and disgust. In our work, we systematically explore the benefits of two contrastive learning approaches: sample-based (Contrastive Reasoning Calibration) and generation-based (DPO, SimPO) contrastive learning. The sample-based contrastive approach trains the model by comparing two samples to generate more reliable predictions. The generation-based contrastive approach trains the model to differentiate between correct and incorrect generations, refining its prediction. All models are fine-tuned from LLaMa3-Instruct-8B. Our system achieves 9th place in Track A and 6th place in Track B for English, while ranking among the top-tier performing systems for other languages.
- Abstract(参考訳): SemEval-2025 Task 11はテキストベース感情検出のギャップを埋めるもので、28以上の言語にまたがる感情認識の課題が紹介されている。
このコンペティションは、感情表現の多様性と背景の変化によって引き起こされる課題に対処する、より高度なアプローチを模索することを奨励する。
マルチラベル分類(Track A)と感情強度予測(Track B)の2つのトラックがあり、怒り、恐怖、喜び、悲しみ、驚き、嫌悪の6つの感情カテゴリーをカバーしている。
本研究では、サンプルベース(Contrastive Reasoning Calibration)とジェネレーションベース(DPO、SimPO)の2つの対照的学習アプローチの利点を体系的に検討する。
サンプルベースのコントラッシブアプローチでは、より信頼性の高い予測を生成するために、2つのサンプルを比較してモデルを訓練する。
世代ベースの対照的なアプローチは、モデルに正しい世代と間違った世代を区別するよう訓練し、予測を洗練させる。
全てのモデルはLLaMa3-Instruct-8Bから微調整されている。
本システムでは、トラックAで9位、トラックBで6位、他の言語でトップレベルのパフォーマンスシステムでは1位にランクインした。
関連論文リスト
- Deciphering Emotions in Children Storybooks: A Comparative Analysis of Multimodal LLMs in Educational Applications [0.0]
本研究は,アラビア語童話の挿絵処理において,GPT-4oとGemini 1.5 Proの2つの先進多モーダル大言語モデルの感情認識性能を評価するものである。
GPT-4oは、すべての条件で一貫してジェミニを上回り、最も高いマクロF1スコアが59%のチェーン・オブ・シークレット・プロンプトで達成された。
これらの知見は、現在のモデルにおける文化的理解の基本的な限界を強調し、文化的に敏感なトレーニングアプローチの必要性を強調している。
論文 参考訳(メタデータ) (2025-06-22T23:20:23Z) - Empaths at SemEval-2025 Task 11: Retrieval-Augmented Approach to Perceived Emotions Prediction [83.88591755871734]
EmoRAGは、SemEval-2025 Task 11, Subtask A: Multi-label Emotion Detectionのためのテキスト中の知覚感情を検出するように設計されたシステムである。
我々は、与えられたテキストスニペットから話者の知覚された感情を予測することに集中し、喜び、悲しみ、恐怖、怒り、驚き、嫌悪感などの感情をラベル付けする。
論文 参考訳(メタデータ) (2025-06-04T19:41:24Z) - JNLP at SemEval-2025 Task 11: Cross-Lingual Multi-Label Emotion Detection Using Generative Models [3.1605924602008373]
本研究では,SemEval-2025 Task 11: Bridging the Gap in Text-Based Emotion Detectionについて述べる。
本研究は,(1)トラックA:マルチラベル感情検出,(2)トラックB:感情強度の2つのサブトラックに焦点を当てた。
入力を対応する感情ラベルに直接マッピングするベースメソッドと、入力テキストと各感情カテゴリの関係を個別にモデル化するペアワイズ手法の2つの方法を提案する。
論文 参考訳(メタデータ) (2025-05-19T15:24:53Z) - SemEval-2025 Task 11: Bridging the Gap in Text-Based Emotion Detection [76.18321723846616]
タスクは7つの異なる言語ファミリーから30以上の言語をカバーしている。
データインスタンスは6つの感情クラスでマルチラベルされており、感情の強さに注釈を付けた11言語にデータセットが追加されている。
参加者は, (a) マルチラベル感情検出, (b) 感情強度スコア検出, (c) 言語間感情検出の3つのトラックでラベルの予測を依頼された。
論文 参考訳(メタデータ) (2025-03-10T12:49:31Z) - Team A at SemEval-2025 Task 11: Breaking Language Barriers in Emotion Detection with Multilingual Models [0.06138671548064355]
本稿では,チームAからSemEval 2025タスク11に提出された「テキストベース感情検出におけるギャップを埋める」システムについて述べる。
このタスクは、テキストスニペットから話者の知覚された感情を識別することを含み、各インスタンスには喜び、悲しみ、恐怖、怒り、驚き、嫌悪の6つの感情の1つが注がれた。
検討した様々なアプローチの中で, マルチリンガル埋め込みと完全連結層を組み合わせることで, 最高の性能を実現した。
論文 参考訳(メタデータ) (2025-02-27T07:59:01Z) - Bag of Tricks for Effective Language Model Pretraining and Downstream
Adaptation: A Case Study on GLUE [93.98660272309974]
このレポートでは、ジェネラル言語理解評価のリーダーボードに関するVega v1を簡潔に紹介します。
GLUEは、質問応答、言語受容性、感情分析、テキスト類似性、パラフレーズ検出、自然言語推論を含む9つの自然言語理解タスクのコレクションである。
最適化された事前学習と微調整の戦略により、13億のモデルは4/9タスクに新しい最先端のタスクを設定し、91.3の平均スコアを達成しました。
論文 参考訳(メタデータ) (2023-02-18T09:26:35Z) - A Generative Language Model for Few-shot Aspect-Based Sentiment Analysis [90.24921443175514]
我々は、アスペクト項、カテゴリを抽出し、対応する極性を予測するアスペクトベースの感情分析に焦点を当てる。
本稿では,一方向の注意を伴う生成言語モデルを用いて,抽出タスクと予測タスクをシーケンス生成タスクに再構成することを提案する。
提案手法は,従来の最先端(BERTをベースとした)の性能を,数ショットとフルショットの設定において,大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-04-11T18:31:53Z) - MEmoBERT: Pre-training Model with Prompt-based Learning for Multimodal
Emotion Recognition [118.73025093045652]
マルチモーダル感情認識のための事前学習モデル textbfMEmoBERT を提案する。
従来の「訓練前、微妙な」パラダイムとは異なり、下流の感情分類タスクをマスク付きテキスト予測として再構成するプロンプトベースの手法を提案する。
提案するMEMOBERTは感情認識性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-10-27T09:57:00Z) - CS-NLP team at SemEval-2020 Task 4: Evaluation of State-of-the-art NLP
Deep Learning Architectures on Commonsense Reasoning Task [3.058685580689605]
本稿では,SemEval-2020 Task 4 competition: Commonsense Validation and Explanation (ComVE) Challengeについて述べる。
本システムは、3つの異なる自然言語推論サブタスクに対して手動でキュレートされたラベル付きテキストデータセットを使用する。
第2のサブタスクでは、声明が意味をなさない理由を選択するため、27人の参加者のうち、最初の6チーム(93.7%)で非常に競争力のある結果が得られます。
論文 参考訳(メタデータ) (2020-05-17T13:20:10Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。