論文の概要: Xu at SemEval-2022 Task 4: Pre-BERT Neural Network Methods vs Post-BERT
RoBERTa Approach for Patronizing and Condescending Language Detection
- arxiv url: http://arxiv.org/abs/2211.06874v1
- Date: Sun, 13 Nov 2022 10:59:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 17:31:35.584804
- Title: Xu at SemEval-2022 Task 4: Pre-BERT Neural Network Methods vs Post-BERT
RoBERTa Approach for Patronizing and Condescending Language Detection
- Title(参考訳): Xu at SemEval-2022 Task 4: Pre-BERT Neural Network Methods vs Post-BERT RoBERTa Approach for Patronizing and Condescending Language Detection (英語)
- Authors: Jinghua Xu
- Abstract要約: 本稿では,SemEval-2022 Task 4: Patronizing and Condescending Language Detectionへの参加について述べる。
実験では、プレBERTニューラルネットワーク(NN)ベースのシステムと、ポストBERT事前訓練言語モデルRoBERTaを比較した。
RoBERTaシステムは、サブタスク1では78チーム中26チーム(F1スコア:54.64)、サブタスク2では49チーム中23チーム(F1スコア:30.03)にランクインしている。
- 参考スコア(独自算出の注目度): 1.713291434132985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes my participation in the SemEval-2022 Task 4: Patronizing
and Condescending Language Detection. I participate in both subtasks:
Patronizing and Condescending Language (PCL) Identification and Patronizing and
Condescending Language Categorization, with the main focus put on subtask 1.
The experiments compare pre-BERT neural network (NN) based systems against
post-BERT pretrained language model RoBERTa. This research finds NN-based
systems in the experiments perform worse on the task compared to the pretrained
language models. The top-performing RoBERTa system is ranked 26 out of 78 teams
(F1-score: 54.64) in subtask 1, and 23 out of 49 teams (F1-score: 30.03) in
subtask 2.
- Abstract(参考訳): 本稿では,SemEval-2022 Task 4: Patronizing and Condescending Language Detectionへの参加について述べる。
私は2つのサブタスクに参加します: パーパナライズとコンデコンディング言語(pcl)の識別、パタライズとコンデコンディング言語分類、主にサブタスクに焦点をあてます。
1) 前BERTニューラルネットワーク(NN)と後BERT事前訓練言語モデルRoBERTaを比較した。
本研究は,実験におけるNNベースのシステムは,事前訓練された言語モデルと比較して,タスクに悪影響を及ぼすことを示した。
RoBERTaは78チーム中26チーム(F1スコア:54.64)、49チーム中23チーム(F1スコア:30.03)にランクインしている。
2.
関連論文リスト
- SemEval-2024 Shared Task 6: SHROOM, a Shared-task on Hallucinations and Related Observable Overgeneration Mistakes [48.83290963506378]
本稿では,幻覚検出に焦点をあてた共有タスクであるSHROOMの結果について述べる。
このアプローチをどのように取り組んだかについて、いくつかの重要なトレンドを観察します。
チームの大多数が提案したベースラインシステムより優れていますが、トップスコアシステムのパフォーマンスは依然として、より困難なアイテムのランダムなハンドリングと一致しています。
論文 参考訳(メタデータ) (2024-03-12T15:06:22Z) - Team QUST at SemEval-2023 Task 3: A Comprehensive Study of Monolingual
and Multilingual Approaches for Detecting Online News Genre, Framing and
Persuasion Techniques [0.030458514384586396]
本稿では,SemEval2023タスク3におけるチームQUSTの参加について述べる。
モノリンガルモデルは、まず多数クラスのアンダーサンプリングを用いて評価される。
事前学習された多言語モデルは、クラス重みとサンプル重みの組み合わせで微調整される。
論文 参考訳(メタデータ) (2023-04-09T08:14:01Z) - Rethinking the Role of Scale for In-Context Learning: An
Interpretability-based Case Study at 66 Billion Scale [60.336655143884904]
本研究では,大規模言語モデルによるタスクの文脈内学習性能が,その基盤となるコンポーネントに均一に分散していないという仮説を考察する。
タスク間のインコンテキスト学習とインコンテキストサンプルの数に対して,アテンションヘッドのセット(重要でない)にかなりの重複がみられた。
論文 参考訳(メタデータ) (2022-12-18T14:36:07Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - RuArg-2022: Argument Mining Evaluation [69.87149207721035]
本稿は、ロシア語テキストを扱う議論分析システムの最初のコンペティションの主催者の報告である。
新型コロナウイルスの感染拡大に伴う3つの話題について、9,550文(ソーシャルメディア投稿記事)のコーパスを用意した。
両タスクで第一位を獲得したシステムは、BERTアーキテクチャのNLI(Natural Language Inference)変種を使用した。
論文 参考訳(メタデータ) (2022-06-18T17:13:37Z) - UTSA NLP at SemEval-2022 Task 4: An Exploration of Simple Ensembles of
Transformers, Convolutional, and Recurrent Neural Networks [12.6970199179668]
この原稿は、UTSA SemEval-2022 Task 4によって開発されたシステムについて記述している。
提案手法では,RoBERTa,畳み込みニューラルネットワーク,双方向長短期記憶ネットワークなど,いくつかのディープラーニングアーキテクチャの利用について検討する。
全体として、いくつかのアンサンブルモデルを実験した結果、5つのRoBERTaモデルの単純な組み合わせは、開発データセットで.6441、最終テストデータセットで.5745のFスコアを達成した。
論文 参考訳(メタデータ) (2022-03-28T17:17:12Z) - SATLab at SemEval-2022 Task 4: Trying to Detect Patronizing and
Condescending Language with only Character and Word N-grams [0.0]
SemEval-2022タスク4において,文字と単語n-gramのみを入力したロジスティック回帰モデルを提案する。
タスクに関する知識を使わずに推測しようとするシステムのパフォーマンスをはるかに上回る平均的なレベルのパフォーマンスを得たが、最高のチームよりもはるかに低い。
論文 参考訳(メタデータ) (2022-03-10T13:09:48Z) - Finetuned Language Models Are Zero-Shot Learners [67.70352207685558]
命令チューニングは、目に見えないタスクにおけるゼロショット性能を向上することを示す。
137Bパラメータを事前訓練した言語モデルと、自然言語の命令テンプレートを介して言語化された60以上のNLPタスクにチューニングする。
FLANと呼ばれるこの命令調整モデルについて、未知のタスクタイプで評価する。
論文 参考訳(メタデータ) (2021-09-03T17:55:52Z) - Explicit Alignment Objectives for Multilingual Bidirectional Encoders [111.65322283420805]
本稿では,多言語エンコーダAMBER(Aligned Multilingual Bi-directional EncodeR)の学習方法を提案する。
AMBERは、異なる粒度で多言語表現を整列する2つの明示的なアライメント目標を使用して、追加の並列データに基づいて訓練される。
実験結果から、AMBERは、シーケンスタグ付けで1.1平均F1スコア、XLMR-大規模モデル上での検索で27.3平均精度を得ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T18:34:13Z) - QiaoNing at SemEval-2020 Task 4: Commonsense Validation and Explanation
system based on ensemble of language model [2.728575246952532]
本稿では,SemEval-2020 Task 4コンペティションに提出された言語モデルシステムについて述べる。
我々は、事前訓練された言語モデル(BERT、XLNet、RoBERTa、ALBERT)を用いて転送学習を行い、このタスクでそれらを微調整した。
アンサンブルされたモデルはこの問題をよりよく解決し、モデルの精度はサブタスクAで95.9%に達した。
論文 参考訳(メタデータ) (2020-09-06T05:12:50Z) - CS-NLP team at SemEval-2020 Task 4: Evaluation of State-of-the-art NLP
Deep Learning Architectures on Commonsense Reasoning Task [3.058685580689605]
本稿では,SemEval-2020 Task 4 competition: Commonsense Validation and Explanation (ComVE) Challengeについて述べる。
本システムは、3つの異なる自然言語推論サブタスクに対して手動でキュレートされたラベル付きテキストデータセットを使用する。
第2のサブタスクでは、声明が意味をなさない理由を選択するため、27人の参加者のうち、最初の6チーム(93.7%)で非常に競争力のある結果が得られます。
論文 参考訳(メタデータ) (2020-05-17T13:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。