論文の概要: HULAT at SemEval-2023 Task 10: Data augmentation for pre-trained
transformers applied to the detection of sexism in social media
- arxiv url: http://arxiv.org/abs/2302.12840v1
- Date: Fri, 24 Feb 2023 18:17:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 20:21:50.576086
- Title: HULAT at SemEval-2023 Task 10: Data augmentation for pre-trained
transformers applied to the detection of sexism in social media
- Title(参考訳): hulat at semeval-2023 task 10: data augmentedation for pre-trained transformers applied to the detection of sexism in social media
- Authors: Isabel Segura-Bedmar
- Abstract要約: 本稿では,ソーシャルメディアにおける性差別の検出を目標とするSemEval-2023タスク10への参加について述べる。
BERT, DistilBERT, RoBERTa, XLNet など,最も人気のあるトランスフォーマーモデルについて検討する。
開発段階では,RoBERTaとデータ拡張により,タスクBとCに最適な結果を得た。
- 参考スコア(独自算出の注目度): 1.4213973379473652
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper describes our participation in SemEval-2023 Task 10, whose goal is
the detection of sexism in social media. We explore some of the most popular
transformer models such as BERT, DistilBERT, RoBERTa, and XLNet. We also study
different data augmentation techniques to increase the training dataset. During
the development phase, our best results were obtained by using RoBERTa and data
augmentation for tasks B and C. However, the use of synthetic data does not
improve the results for task C. We participated in the three subtasks. Our
approach still has much room for improvement, especially in the two
fine-grained classifications. All our code is available in the repository
https://github.com/isegura/hulat_edos.
- Abstract(参考訳): 本稿では,ソーシャルメディアにおける性差別の検出を目標とするSemEval-2023タスク10への参加について述べる。
BERT, DistilBERT, RoBERTa, XLNet など,最も人気のあるトランスフォーマーモデルについて検討する。
トレーニングデータセットを増やすために、さまざまなデータ拡張テクニックも研究しています。
開発段階では,RoBERTaとデータ拡張をタスクBとCで行い,最適な結果を得たが,合成データの利用はタスクCでは改善せず,3つのサブタスクに参加した。
私たちのアプローチは、特に2つのきめ細かい分類において、まだ改善の余地があります。
私たちのコードはすべて、リポジトリhttps://github.com/isegura/hulat_edosで利用可能です。
関連論文リスト
- Generating Realistic Tabular Data with Large Language Models [49.03536886067729]
大規模言語モデル(LLM)は多様なタスクに使われてきたが、特徴と対象変数の正確な相関は捉えていない。
そこで本研究では,LLMに基づく3つの重要な改良を加えて,実データの特徴クラス相関を正しく把握する手法を提案する。
実験の結果,本手法は下流タスクにおいて,20個のデータセット上で10個のSOTAベースラインを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-10-29T04:14:32Z) - Stanford MLab at SemEval-2023 Task 10: Exploring GloVe- and
Transformer-Based Methods for the Explainable Detection of Online Sexism [0.0]
テキストが性差別的かどうかを予測するために3つの分類タスクを実行する。
セクシストのテキストをサブカテゴリに分類し、なぜセクシストなのかを解説する。
論文 参考訳(メタデータ) (2023-05-07T18:58:54Z) - NLP-LTU at SemEval-2023 Task 10: The Impact of Data Augmentation and
Semi-Supervised Learning Techniques on Text Classification Performance on an
Imbalanced Dataset [1.3445335428144554]
本稿では、ソーシャルメディア投稿におけるオンライン性差別の検出と分類に焦点を当てたSemEval23のタスク10の方法論を提案する。
この課題に対する我々の解決策は、細調整されたトランスフォーマーベースモデルのアンサンブルに基づいている。
論文 参考訳(メタデータ) (2023-04-25T14:19:46Z) - HULAT at SemEval-2023 Task 9: Data augmentation for pre-trained
transformers applied to Multilingual Tweet Intimacy Analysis [1.4213973379473652]
本稿では,SemEval-2023 Task 9, Intimacy Analysis of Multilingual Tweetsについて述べる。
トレーニングデータセットと、異なるデータ拡張技術によって生成された合成データにより、最も人気のあるトランスフォーマーモデルを微調整する。
その結果,ポルトガル語,英語,オランダ語などの言語で有望な結果が得られた。
論文 参考訳(メタデータ) (2023-02-24T18:10:37Z) - Transformer Encoder for Social Science [1.6058099298620425]
本稿では,テキスト処理タスクに対処する,コンパクトな事前学習型深層ニューラルネットワークであるTransformer for Social Science (TESS)を提案する。
2つの検証テストを用いて、トレーニングサンプル数に制限がある場合、TESSがBERTとRoBERTaを平均16.7%上回ることを示した。
論文 参考訳(メタデータ) (2022-08-17T01:01:25Z) - Learning to Win Lottery Tickets in BERT Transfer via Task-agnostic Mask
Training [55.43088293183165]
近年の研究では、BERTのような事前学習言語モデル(PLM)には、元のPLMと同じような変換学習性能を持つマッチングワークが含まれていることが示されている。
本稿では, BERTworksがこれらの研究で示された以上の可能性を秘めていることを示す。
我々は、サブネットワークの普遍的な転送可能性を維持することを目的として、事前学習タスクのモデル重みよりも二項マスクを訓練する。
論文 参考訳(メタデータ) (2022-04-24T08:42:47Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Generative Conversational Networks [67.13144697969501]
本稿では,対話エージェントが独自のラベル付き学習データを生成することを学習する,生成会話ネットワーク(Generative Conversational Networks)というフレームワークを提案する。
そこで本研究では,シードデータから学習したベースラインモデルに対して,意図検出が平均35%,スロットタグが平均21%向上したことを示す。
論文 参考訳(メタデータ) (2021-06-15T23:19:37Z) - ProtoDA: Efficient Transfer Learning for Few-Shot Intent Classification [21.933876113300897]
我々は,メタラーニングパラダイムの下で,原型ネットワークを用いた関連するタスクのアンサンブル上での伝達学習による代替的アプローチを採用する。
本研究は,意図分類を事例として,学習課題における多様性の増大が,分類性能を著しく向上させることを示した。
論文 参考訳(メタデータ) (2021-01-28T00:19:13Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z) - iTAML: An Incremental Task-Agnostic Meta-learning Approach [123.10294801296926]
人間は経験が成長するにつれて、新しい知識を継続的に学ぶことができる。
ディープニューラルネットワークにおける以前の学習は、新しいタスクでトレーニングされたときにすぐに消えてしまう可能性がある。
遭遇した全てのタスク間の平衡を維持するために,新しいメタラーニング手法を導入する。
論文 参考訳(メタデータ) (2020-03-25T21:42:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。