論文の概要: MasonTigers@LT-EDI-2024: An Ensemble Approach Towards Detecting
Homophobia and Transphobia in Social Media Comments
- arxiv url: http://arxiv.org/abs/2401.14681v2
- Date: Thu, 15 Feb 2024 06:05:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 20:51:46.542361
- Title: MasonTigers@LT-EDI-2024: An Ensemble Approach Towards Detecting
Homophobia and Transphobia in Social Media Comments
- Title(参考訳): MasonTigers@LT-EDI-2024:ソーシャルメディアコメントにおけるホモフォビアとトランスフォビアの検出に向けたアンサンブルアプローチ
- Authors: Dhiman Goswami, Sadiya Sayara Chowdhury Puspo, Md Nishat Raihan, Al
Nahian Bin Emran
- Abstract要約: 10言語にわたるホモフォビアおよび/またはトランスフォビアを検出することを目的としたLT-EDI 2024ワークショップのタスク2のアプローチと結果について述べる。
我々の手法はモノリンガル変換器とアンサンブル法を含み、それぞれの強みを活かしてモデルの性能を向上させる。
アンサンブルモデルはうまくいき、マクロF1スコアによって測定された10言語中8言語のトップ5に、私たちのチームであるMasonTigersを配置しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we describe our approaches and results for Task 2 of the
LT-EDI 2024 Workshop, aimed at detecting homophobia and/or transphobia across
ten languages. Our methodologies include monolingual transformers and ensemble
methods, capitalizing on the strengths of each to enhance the performance of
the models. The ensemble models worked well, placing our team, MasonTigers, in
the top five for eight of the ten languages, as measured by the macro F1 score.
Our work emphasizes the efficacy of ensemble methods in multilingual scenarios,
addressing the complexities of language-specific tasks.
- Abstract(参考訳): 本稿では,10言語にわたるホモフォビアおよび/またはトランスフォビアの検出を目的としたLT-EDI 2024ワークショップのタスク2のアプローチと結果について述べる。
提案手法は単言語トランスフォーマーとアンサンブル法を含み,それぞれの強みを活かしてモデルの性能を向上させる。
アンサンブルモデルはうまくいき、マクロF1スコアによって測定された10言語中8言語のトップ5に、私たちのチームであるMasonTigersを配置しました。
本研究は,多言語シナリオにおけるアンサンブル手法の有効性を強調し,言語固有のタスクの複雑さに対処する。
関連論文リスト
- Adapting Large Language Models for Document-Level Machine Translation [49.74879186939818]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて大きな進歩を遂げている。
近年の研究では、中程度のLLMはタスク固有の微調整の後、より大きなLLMよりも優れていることが示されている。
論文 参考訳(メタデータ) (2024-01-12T09:29:13Z) - Cordyceps@LT-EDI: Patching Language-Specific Homophobia/Transphobia
Classifiers with a Multilingual Understanding [0.0]
ホモフォビアおよびトランスフォビアヘイトスピーチ検出のための多言語(M-L)と言語固有の(L-S)アプローチを提案する。
M-Lモデルは、特定の言語では一般的でない、あるいは欠落している単語、フレーズ、概念をキャッチするために必要である。
L-Sモデルは、通常特定の言語で書くユーザーの文化的・言語的文脈を理解するのに適している。
論文 参考訳(メタデータ) (2023-09-24T06:37:54Z) - Efficiently Aligned Cross-Lingual Transfer Learning for Conversational
Tasks using Prompt-Tuning [98.60739735409243]
英語のような高リソース言語で訓練された言語モデルの言語間移動は、多くのNLPタスクのために広く研究されている。
並列および大規模多言語会話データセットである言語間アライメント事前学習のためのXSGDを導入する。
協調的な言語間表現を容易にするために,アライメントプロンプトを学習するための効率的なプロンプトチューニング手法を開発した。
論文 参考訳(メタデータ) (2023-04-03T18:46:01Z) - Hitachi at SemEval-2023 Task 3: Exploring Cross-lingual Multi-task
Strategies for Genre and Framing Detection in Online News [10.435874177179764]
本稿では,日立チームによるSemEval-2023タスク3への参加について解説する。
本研究では,事前学習した言語モデルの学習のための多言語・多タスク戦略について検討した。
結果からアンサンブルモデルを構築し,イタリアおよびロシアのジャンル分類サブタスクにおいて,マクロ平均F1スコアを達成した。
論文 参考訳(メタデータ) (2023-03-03T09:12:55Z) - Bag of Tricks for Effective Language Model Pretraining and Downstream
Adaptation: A Case Study on GLUE [93.98660272309974]
このレポートでは、ジェネラル言語理解評価のリーダーボードに関するVega v1を簡潔に紹介します。
GLUEは、質問応答、言語受容性、感情分析、テキスト類似性、パラフレーズ検出、自然言語推論を含む9つの自然言語理解タスクのコレクションである。
最適化された事前学習と微調整の戦略により、13億のモデルは4/9タスクに新しい最先端のタスクを設定し、91.3の平均スコアを達成しました。
論文 参考訳(メタデータ) (2023-02-18T09:26:35Z) - Tencent AI Lab - Shanghai Jiao Tong University Low-Resource Translation
System for the WMT22 Translation Task [49.916963624249355]
本稿では, Tencent AI Lab - Shanghai Jiao Tong University (TAL-SJTU) Low-Resource Translation system for the WMT22 shared taskについて述べる。
我々は、英語$Leftrightarrow$Livonianの一般的な翻訳作業に参加する。
本システムは,M2M100を対象言語に適応させる新しい手法を用いて構築した。
論文 参考訳(メタデータ) (2022-10-17T04:34:09Z) - Unsupervised Cross-lingual Adaptation for Sequence Tagging and Beyond [58.80417796087894]
多言語事前訓練言語モデル(mPTLM)による言語間適応は、主にゼロショットアプローチと翻訳に基づくアプローチの2行からなる。
本稿では、ゼロショットアプローチと翻訳に基づくアプローチを統合し、適応性能を向上させるための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-23T13:47:01Z) - Mixed-Lingual Pre-training for Cross-lingual Summarization [54.4823498438831]
言語間の要約は、ソース言語の記事に対する対象言語の要約を作成することを目的としている。
本稿では,翻訳のような言語間タスクと,マスク付き言語モデルのようなモノリンガルタスクの両方を活用する混合言語事前学習に基づくソリューションを提案する。
本モデルでは,2.82(中国語)と1.15(中国語,英語)のROUGE-1スコアを最先端の結果に対して改善する。
論文 参考訳(メタデータ) (2020-10-18T00:21:53Z) - Cross-Lingual Transfer Learning for Complex Word Identification [0.3437656066916039]
複合単語識別(CWI)は、テキスト中の難解な単語を検出することに焦点を当てたタスクである。
我々のアプローチでは、自然言語処理(NLP)タスクのための最先端のソリューションとともに、ゼロショット、ワンショット、および少数ショットの学習技術を使用します。
本研究の目的は,多言語環境下で複雑な単語の特徴を学習できることを示すことである。
論文 参考訳(メタデータ) (2020-10-02T17:09:47Z) - On Learning Universal Representations Across Languages [37.555675157198145]
文レベルの表現を学習するための既存のアプローチを拡張し、言語間理解と生成の有効性を示す。
具体的には,複数の言語に分散した並列文の普遍表現を学習するための階層型コントラスト学習(HiCTL)手法を提案する。
我々は、XTREMEと機械翻訳という2つの難解な言語間タスクについて評価を行う。
論文 参考訳(メタデータ) (2020-07-31T10:58:39Z) - Growing Together: Modeling Human Language Learning With n-Best
Multi-Checkpoint Machine Translation [8.9379057739817]
我々は、MTモデルを様々な訓練段階において、異なるレベルの人間の学習者とみなす。
我々は同じモデルから複数のチェックポイントのアンサンブルを用いて、様々なレベルの流速で翻訳シーケンスを生成する。
我々は、ポルトガル語の共有タスクテストデータに対して、公式英語の6つのチェックポイントモデルアンサンブルで37.57マクロF1を達成する。
論文 参考訳(メタデータ) (2020-06-07T05:46:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。