論文の概要: University of Indonesia at SemEval-2025 Task 11: Evaluating State-of-the-Art Encoders for Multi-Label Emotion Detection
- arxiv url: http://arxiv.org/abs/2505.16460v1
- Date: Thu, 22 May 2025 09:42:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.203298
- Title: University of Indonesia at SemEval-2025 Task 11: Evaluating State-of-the-Art Encoders for Multi-Label Emotion Detection
- Title(参考訳): インドネシア大学SemEval-2025タスク11:マルチラベル感情検出のための最先端エンコーダの評価
- Authors: Ikhlasul Akmal Hanif, Eryawan Presma Yulianrifat, Jaycent Gunawan Ongris, Eduardus Tjitrahardja, Muhammad Falensi Azmi, Rahmat Bryan Naufal, Alfan Farizki Wicaksono,
- Abstract要約: 本稿では,28言語にまたがるマルチラベル感情分類に焦点を当てた。
完全微調整変圧器モデルと分類器のみのトレーニングの2つの主要な戦略について検討する。
以上の結果から,mE5やBGEなどのプロンプトベースエンコーダ上での分類器の訓練は,完全微調整XLMRやmBERTよりも有意に優れた結果が得られることが示唆された。
- 参考スコア(独自算出の注目度): 1.2564343689544841
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents our approach for SemEval 2025 Task 11 Track A, focusing on multilabel emotion classification across 28 languages. We explore two main strategies: fully fine-tuning transformer models and classifier-only training, evaluating different settings such as fine-tuning strategies, model architectures, loss functions, encoders, and classifiers. Our findings suggest that training a classifier on top of prompt-based encoders such as mE5 and BGE yields significantly better results than fully fine-tuning XLMR and mBERT. Our best-performing model on the final leaderboard is an ensemble combining multiple BGE models, where CatBoost serves as the classifier, with different configurations. This ensemble achieves an average F1-macro score of 56.58 across all languages.
- Abstract(参考訳): 本稿では,28言語にまたがるマルチラベル感情分類に着目し,SemEval 2025 Task 11 Track Aへのアプローチを提案する。
完全に微調整されたトランスフォーマーモデルと分類器のみのトレーニング、微調整戦略、モデルアーキテクチャ、損失関数、エンコーダ、分類器などの異なる設定を評価する。
以上の結果から,mE5やBGEなどのプロンプトベースエンコーダ上での分類器の訓練は,完全微調整XLMRやmBERTよりも有意に優れた結果が得られることが示唆された。
最終的なリーダーボード上での最高のパフォーマンスモデルは、複数のBGEモデルを組み合わせたアンサンブルです。
このアンサンブルは全言語で平均56.58のF1マクロスコアを達成している。
関連論文リスト
- Network Traffic Classification Using Machine Learning, Transformer, and Large Language Models [1.1137087573421256]
本研究では,ネットワークトラフィックの分類,Webへのトラフィックの分類,ブラウジング,バックアップ,電子メールなど,さまざまなモデルを用いた。
Arbor Edge Defender(AED)デバイスから,30,959の観測結果と19の特徴からなる包括的なデータセットを収集した。
Naive Bayes, Decision Tree, Random Forest, Gradient Boosting, XGBoost, Deep Networks (DNN), Transformer, and two Large Language Models (LLMs) with zero- and few-shot learning。
論文 参考訳(メタデータ) (2025-03-04T00:18:58Z) - CerraData-4MM: A multimodal benchmark dataset on Cerrado for land use and land cover classification [5.503948543987285]
CerraData-4MMは、Sentinel-1 Synthetic Aperture Radar (SAR)とSentinel-2 MultiSpectral Imagery (MSI)を組み合わせたデータセットである。
データセットには、それぞれ7クラスと14クラスからなる2つの階層的な分類レベルが含まれており、多様なBico do Papagaio eco Regionに焦点を当てている。
我々は、標準的なU-Netとより洗練されたビジョントランスフォーマー(ViT)モデルを評価することにより、高度なセマンティックセグメンテーション手法をベンチマークするCerraData-4MMの能力を強調した。
論文 参考訳(メタデータ) (2025-01-31T15:57:17Z) - VLM2Vec: Training Vision-Language Models for Massive Multimodal Embedding Tasks [60.5257456681402]
幅広い下流タスクを扱える普遍的な埋め込みを構築する可能性について検討する。
We build a series of VLM2Vec model on SoTA VLMs like Phi-3.5-V, LLaVA-1.6 and evaluate them on MMEB's evaluation split。
以上の結果から,VLM2Vecは既存のマルチモーダル埋め込みモデルよりも10%から20%の絶対的な平均的改善を実現していることがわかった。
論文 参考訳(メタデータ) (2024-10-07T16:14:05Z) - Text Embeddings by Weakly-Supervised Contrastive Pre-training [98.31785569325402]
E5は最先端のテキスト埋め込みのファミリーであり、幅広いタスクにうまく転送される。
E5は、テキストの単一ベクトル表現を必要とするタスクに対して、汎用的な埋め込みモデルとして簡単に使用できる。
論文 参考訳(メタデータ) (2022-12-07T09:25:54Z) - CV 3315 Is All You Need : Semantic Segmentation Competition [14.818852884385015]
このコンペティションは、車載カメラのビューに基づいてUrban-Senseに焦点を当てている。
クラスの非バランスなUrban-Senseイメージデータセットは、既存のソリューションに挑戦する。
ディープコンベンショナルニューラルネットワークに基づくセマンティックセグメンテーション手法は、現実のアプリケーションに適用可能な柔軟なソリューションとなる。
論文 参考訳(メタデータ) (2022-06-25T06:27:57Z) - Unifying Language Learning Paradigms [96.35981503087567]
データセットやセットアップ全体にわたって普遍的に有効である事前学習モデルのための統一的なフレームワークを提案する。
本研究では, 事前学習対象を相互に配置し, 異なる対象間の補間を効果的に行う方法を示す。
また,テキスト内学習において,ゼロショットSuperGLUEで175B GPT-3,ワンショット要約でT5-XXLの性能を3倍に向上させた。
論文 参考訳(メタデータ) (2022-05-10T19:32:20Z) - MSeg: A Composite Dataset for Multi-domain Semantic Segmentation [100.17755160696939]
セマンティックセグメンテーションデータセットを異なるドメインから統合する合成データセットであるMSegを提案する。
一般化と画素レベルのアノテーションのアライメントを調整し,2万枚以上のオブジェクトマスクを8万枚以上の画像で再現する。
MSegでトレーニングされたモデルは、WildDash-v1のリーダーボードで、トレーニング中にWildDashのデータに触れることなく、堅牢なセマンティックセグメンテーションのためにランク付けされている。
論文 参考訳(メタデータ) (2021-12-27T16:16:35Z) - FiSSA at SemEval-2020 Task 9: Fine-tuned For Feelings [2.362412515574206]
本稿では,スペイン語と英語の混在するソーシャルメディアデータを用いた感情分類手法を提案する。
単言語モデルと多言語モデルの両方を標準微調整法を用いて検討する。
2段階の微調整により、ベースモデルよりも感情分類性能が向上するが、大規模多言語XLM-RoBERTaモデルではF1スコアが最適である。
論文 参考訳(メタデータ) (2020-07-24T14:48:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。