論文の概要: LMN at SemEval-2022 Task 11: A Transformer-based System for English
Named Entity Recognition
- arxiv url: http://arxiv.org/abs/2203.03546v1
- Date: Sun, 13 Feb 2022 05:46:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-13 14:02:22.100585
- Title: LMN at SemEval-2022 Task 11: A Transformer-based System for English
Named Entity Recognition
- Title(参考訳): LMN at SemEval-2022 Task 11: A Transformer-based System for English Named Entity Recognition
- Authors: Ngoc Minh Lai
- Abstract要約: 本稿では,SemEval-2022 Task 11: Multilingual Complex Named Entity Recognition の英語トラックへの参加について述べる。
事前訓練されたトランスフォーマー言語モデルの最近の進歩に触発されて,タスクのためのシンプルで効果的なトランスフォーマーベースラインを提案する。
提案したアプローチは、30チーム中12チームを対象にして、リーダボードの競争結果を示しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Processing complex and ambiguous named entities is a challenging research
problem, but it has not received sufficient attention from the natural language
processing community. In this short paper, we present our participation in the
English track of SemEval-2022 Task 11: Multilingual Complex Named Entity
Recognition. Inspired by the recent advances in pretrained Transformer language
models, we propose a simple yet effective Transformer-based baseline for the
task. Despite its simplicity, our proposed approach shows competitive results
in the leaderboard as we ranked 12 over 30 teams. Our system achieved a macro
F1 score of 72.50% on the held-out test set. We have also explored a data
augmentation approach using entity linking. While the approach does not improve
the final performance, we also discuss it in this paper.
- Abstract(参考訳): 複雑であいまいな名前付きエンティティの処理は、難しい研究課題であるが、自然言語処理コミュニティから十分な注目を集めていない。
本稿では,SemEval-2022 Task 11: Multilingual Complex Named Entity Recognitionの英語トラックへの参加について述べる。
事前学習されたトランスフォーマー言語モデルの最近の進歩に触発されて,単純かつ効果的なトランスフォーマーベースラインを提案する。
そのシンプルさにもかかわらず、提案手法はリーダーボードに競争力のある結果を示し、30チーム中12チームがランク付けしました。
本システムでは, ホールドアウトテストセットにおいて, マクロF1スコア72.50%を達成した。
また,エンティティリンクを用いたデータ拡張手法についても検討した。
このアプローチは最終的なパフォーマンスを改善するものではないが、本論文ではそれについても論じる。
関連論文リスト
- Bag of Tricks for Effective Language Model Pretraining and Downstream
Adaptation: A Case Study on GLUE [93.98660272309974]
このレポートでは、ジェネラル言語理解評価のリーダーボードに関するVega v1を簡潔に紹介します。
GLUEは、質問応答、言語受容性、感情分析、テキスト類似性、パラフレーズ検出、自然言語推論を含む9つの自然言語理解タスクのコレクションである。
最適化された事前学習と微調整の戦略により、13億のモデルは4/9タスクに新しい最先端のタスクを設定し、91.3の平均スコアを達成しました。
論文 参考訳(メタデータ) (2023-02-18T09:26:35Z) - Toward Efficient Language Model Pretraining and Downstream Adaptation
via Self-Evolution: A Case Study on SuperGLUE [203.65227947509933]
このレポートでは、スーパーGLUEのリーダーボードにJDExplore d-teamのVega v2を提出しました。
SuperGLUEは、広く使われている汎用言語理解評価(GLUE)ベンチマークよりも難易度が高く、8つの難しい言語理解タスクを含んでいる。
論文 参考訳(メタデータ) (2022-12-04T15:36:18Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - Multilinguals at SemEval-2022 Task 11: Transformer Based Architecture
for Complex NER [6.473762650914918]
英語における複雑なNERの課題について検討する。
BERTのような事前訓練された言語モデルを用いて,この課題に対する競合性能を得る。
論文 参考訳(メタデータ) (2022-04-05T12:58:57Z) - USTC-NELSLIP at SemEval-2022 Task 11: Gazetteer-Adapted Integration
Network for Multilingual Complex Named Entity Recognition [41.26523047041553]
本稿では,SemEval-2022 Task 11 Multilingual Complex Named Entities Recognition (MultiCoNER)のためにUSTC-NELSLIPチームが開発したシステムについて述べる。
本稿では,複雑な名前付きエンティティを認識するための言語モデルの性能向上のために,ガゼッタ適応統合ネットワーク(GAIN)を提案する。
論文 参考訳(メタデータ) (2022-03-07T09:05:37Z) - DAMO-NLP at SemEval-2022 Task 11: A Knowledge-based System for
Multilingual Named Entity Recognition [94.1865071914727]
MultiCoNERは、複数の言語に対する短文と低文設定で意味的に曖昧な名前のエンティティを検出することを目的としている。
我々のチームDAMO-NLPは知識に基づくシステムを提案し、ウィキペディアに基づく多言語知識ベースを構築する。
入力文が与えられた場合,本システムは知識ベースから関連コンテキストを効果的に検索する。
我々のシステムはMultiCoNER共有タスクで13トラック中10トラックを獲得した。
論文 参考訳(メタデータ) (2022-03-01T15:29:35Z) - An Attention Ensemble Approach for Efficient Text Classification of
Indian Languages [0.0]
本稿では,インド・デヴァナガリ文字を母語とするマラーティー語における短文文書の細かな技術領域識別について述べる。
畳み込みニューラルネットワークが生成する中間文表現と双方向の長期記憶とを合体させ,効率的なテキスト分類を実現するcnn-bilstm注意アンサンブルモデルを提案する。
実験結果から,提案モデルが与えられたタスクにおける各種ベースライン機械学習および深層学習モデルより優れ,89.57%,f1スコア0.8875の検証精度が得られた。
論文 参考訳(メタデータ) (2021-02-20T07:31:38Z) - UPB at SemEval-2020 Task 9: Identifying Sentiment in Code-Mixed Social
Media Texts using Transformers and Multi-Task Learning [1.7196613099537055]
本研究チームは,SemEval-2020 Task 9のために開発したシステムについて述べる。
私たちは、ヒンディー語とスペイン語の2つのよく知られた混成言語をカバーすることを目指しています。
提案手法は, 平均F1スコアが0.6850であるヒンディー語タスクにおいて, 有望な性能を達成する。
スペイン語と英語のタスクでは、29人中17人として、平均で0.7064のF1スコアを獲得しました。
論文 参考訳(メタデータ) (2020-09-06T17:19:18Z) - ANDES at SemEval-2020 Task 12: A jointly-trained BERT multilingual model
for offensive language detection [0.6445605125467572]
我々は,提案言語にまたがる課題に対処するために,多言語BERTを微調整した単一モデルを共同で訓練した。
私たちの単一モデルは、最高のパフォーマンスシステムに近いパフォーマンスで、競争力のある結果を得ました。
論文 参考訳(メタデータ) (2020-08-13T16:07:00Z) - MC-BERT: Efficient Language Pre-Training via a Meta Controller [96.68140474547602]
大規模事前学習は計算コストが高い。
事前トレーニングを加速する初期の試みであるELECTRAは、各入力トークンがジェネレータに置き換えられたかどうかを予測する識別モデルを訓練している。
本稿では,MC-BERTというメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T09:22:19Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。