論文の概要: Taygete at SemEval-2022 Task 4: RoBERTa based models for detecting
Patronising and Condescending Language
- arxiv url: http://arxiv.org/abs/2204.10519v1
- Date: Fri, 22 Apr 2022 06:11:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-25 13:00:58.250084
- Title: Taygete at SemEval-2022 Task 4: RoBERTa based models for detecting
Patronising and Condescending Language
- Title(参考訳): SemEval-2022 Task 4:RoBERTaを用いた愛国語検出モデル
- Authors: Jayant Chhillar
- Abstract要約: 本研究は、LSTMおよびCNNレイヤと組み合わせた事前学習されたRoBERTa言語モデルに基づく、さまざまなモデルについて検討する。
F1スコアはサブタスクAが0.5924、サブタスクBが12ドル、マクロF1スコアは0.3763である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work describes the development of different models to detect patronising
and condescending language within extracts of news articles as part of the
SemEval 2022 competition (Task-4). This work explores different models based on
the pre-trained RoBERTa language model coupled with LSTM and CNN layers. The
best models achieved 15$^{th}$ rank with an F1-score of 0.5924 for subtask-A
and 12$^{th}$ in subtask-B with a macro-F1 score of 0.3763.
- Abstract(参考訳): 本研究は,SemEval 2022コンペティション(Task-4)の一環として,ニュース記事の抽出文中の助成・導出言語を検出するさまざまなモデルの開発について述べる。
本研究は、LSTMおよびCNN層と組み合わせた事前学習されたRoBERTa言語モデルに基づく異なるモデルについて検討する。
最良モデルは15$^{th}$ランクで、サブタスクAは0.5924、サブタスクBは12$^{th}$でマクロF1スコアは0.3763である。
関連論文リスト
- Multilingual E5 Text Embeddings: A Technical Report [63.503320030117145]
異なるサイズの3つの埋め込みモデルを提供し、推論効率と埋め込み品質のバランスを提供する。
そこで我々は,新しい命令調整型埋め込みモデルを導入し,その性能は類似サイズの最先端の英語のみのモデルと同等である。
論文 参考訳(メタデータ) (2024-02-08T13:47:50Z) - EPIK: Eliminating multi-model Pipelines with Knowledge-distillation [0.0]
MATRaのようなモデルでは、クロスリンガル翻訳を2段階に分けて行う。
本研究では, 階層的タスクのための2段階パイプラインを1つのエンド・ツー・エンド・モデルに縮合する新しい蒸留手法 EPIK を提案する。
EPIKモデルは平均CERスコア0.015、平均音韻精度92.1%で音訳を行うことができる。
論文 参考訳(メタデータ) (2022-11-27T19:36:44Z) - Zemi: Learning Zero-Shot Semi-Parametric Language Models from Multiple
Tasks [77.90900650816046]
ゼロショットセミパラメトリック言語モデルである$textZemi$を紹介します。
私たちは、新しいセミパラメトリックマルチタスクによるトレーニングパラダイムで、textZemi$をトレーニングします。
具体的には、大規模タスクに依存しない未ラベルコーパスからの検索により、マルチタスクトレーニングとゼロショット評価を強化する。
論文 参考訳(メタデータ) (2022-10-01T04:08:50Z) - UM4: Unified Multilingual Multiple Teacher-Student Model for
Zero-Resource Neural Machine Translation [102.04003089261761]
MNMT(Multilingual Neural Machine Translation)は、すべての言語で共有セマンティック空間を用いたワンパス翻訳を可能にする。
NMTのための統一多言語多言語学習モデル(UM4)を提案する。
本手法は,ゼロリソース翻訳の学生モデルを指導するために,ソース・教師,ターゲット・教師,ピボット・教師のモデルを統一する。
論文 参考訳(メタデータ) (2022-07-11T14:22:59Z) - RoBLEURT Submission for the WMT2021 Metrics Task [72.26898579202076]
本稿では,共有メトリクスタスクであるRoBLEURTについて紹介する。
我々のモデルは10対の英語言語対のうち8対でWMT 2020の人間のアノテーションと最先端の相関に達する。
論文 参考訳(メタデータ) (2022-04-28T08:49:40Z) - A Variational Hierarchical Model for Neural Cross-Lingual Summarization [85.44969140204026]
言語間の要約(英: cross-lingual summarization)とは、ある言語の文書を別の言語の要約に変換することである。
CLSに関する既存の研究は主にパイプライン手法の利用やエンドツーエンドモデルの共同トレーニングに重点を置いている。
条件付き変分自動エンコーダに基づくCLSタスクの階層モデルを提案する。
論文 参考訳(メタデータ) (2022-03-08T02:46:11Z) - Few-shot Learning with Multilingual Language Models [66.49496434282564]
多様な言語群をカバーするバランスの取れたコーパス上で,多言語の自動回帰言語モデルを訓練する。
私たちの最大のモデルは、20以上の代表言語で数ショットの学習において、新しい最先端の技術を定めています。
本稿では,モデルがどこで成功し,失敗するかを詳細に分析し,特に言語間の文脈内学習を可能にすることを示す。
論文 参考訳(メタデータ) (2021-12-20T16:52:35Z) - QiaoNing at SemEval-2020 Task 4: Commonsense Validation and Explanation
system based on ensemble of language model [2.728575246952532]
本稿では,SemEval-2020 Task 4コンペティションに提出された言語モデルシステムについて述べる。
我々は、事前訓練された言語モデル(BERT、XLNet、RoBERTa、ALBERT)を用いて転送学習を行い、このタスクでそれらを微調整した。
アンサンブルされたモデルはこの問題をよりよく解決し、モデルの精度はサブタスクAで95.9%に達した。
論文 参考訳(メタデータ) (2020-09-06T05:12:50Z) - syrapropa at SemEval-2020 Task 11: BERT-based Models Design For
Propagandistic Technique and Span Detection [2.0051855303186046]
まず,SpanBERTに基づくSpan Identification(SI)モデルを構築し,より深いモデルと文レベルの表現による検出を容易にする。
次に、テクニック分類(TC)のためのハイブリッドモデルを開発する。
ハイブリッドモデルは、2つのBERTモデルと異なるトレーニング方法、特徴ベースのロジスティック回帰モデルを含む3つのサブモデルで構成されている。
論文 参考訳(メタデータ) (2020-08-24T02:15:29Z) - FiSSA at SemEval-2020 Task 9: Fine-tuned For Feelings [2.362412515574206]
本稿では,スペイン語と英語の混在するソーシャルメディアデータを用いた感情分類手法を提案する。
単言語モデルと多言語モデルの両方を標準微調整法を用いて検討する。
2段階の微調整により、ベースモデルよりも感情分類性能が向上するが、大規模多言語XLM-RoBERTaモデルではF1スコアが最適である。
論文 参考訳(メタデータ) (2020-07-24T14:48:27Z) - The Inception Team at NSURL-2019 Task 8: Semantic Question Similarity in
Arabic [0.76146285961466]
本稿では,アラビア語における意味的質問類似性の課題について述べる。
目的は、提供されたデータセットに対して、アラビア語で同様の意味論を検出できるモデルを構築することである。
論文 参考訳(メタデータ) (2020-04-24T19:52:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。