論文の概要: USTC-NELSLIP at SemEval-2022 Task 11: Gazetteer-Adapted Integration
Network for Multilingual Complex Named Entity Recognition
- arxiv url: http://arxiv.org/abs/2203.03216v1
- Date: Mon, 7 Mar 2022 09:05:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 16:21:42.992725
- Title: USTC-NELSLIP at SemEval-2022 Task 11: Gazetteer-Adapted Integration
Network for Multilingual Complex Named Entity Recognition
- Title(参考訳): SemEval-2022 Task 11: Gazetteer-Adapted Integration Network for Multilingual Complex Named Entity Recognition
- Authors: Beiduo Chen, Jun-Yu Ma, Jiajun Qi, Wu Guo, Zhen-Hua Ling, Quan Liu
- Abstract要約: 本稿では,SemEval-2022 Task 11 Multilingual Complex Named Entities Recognition (MultiCoNER)のためにUSTC-NELSLIPチームが開発したシステムについて述べる。
本稿では,複雑な名前付きエンティティを認識するための言語モデルの性能向上のために,ガゼッタ適応統合ネットワーク(GAIN)を提案する。
- 参考スコア(独自算出の注目度): 41.26523047041553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes the system developed by the USTC-NELSLIP team for
SemEval-2022 Task 11 Multilingual Complex Named Entity Recognition
(MultiCoNER). We propose a gazetteer-adapted integration network (GAIN) to
improve the performance of language models for recognizing complex named
entities. The method first adapts the representations of gazetteer networks to
those of language models by minimizing the KL divergence between them. After
adaptation, these two networks are then integrated for backend supervised named
entity recognition (NER) training. The proposed method is applied to several
state-of-the-art Transformer-based NER models with a gazetteer built from
Wikidata, and shows great generalization ability across them. The final
predictions are derived from an ensemble of these trained models. Experimental
results and detailed analysis verify the effectiveness of the proposed method.
The official results show that our system ranked 1st on three tracks (Chinese,
Code-mixed and Bangla) and 2nd on the other ten tracks in this task.
- Abstract(参考訳): 本稿では,SemEval-2022 Task 11 Multilingual Complex Named Entity Recognition (MultiCoNER)のためにUSTC-NELSLIPチームが開発したシステムについて述べる。
複雑な名前付きエンティティを認識するための言語モデルの性能を向上させるために,ガゼッタ対応統合ネットワーク(gain)を提案する。
この手法はまず,KLの発散を最小限に抑え,ガゼターネットワークの表現を言語モデルの表現に適応させる。
適応後、これらの2つのネットワークはバックエンド管理されたエンティティ認識(NER)トレーニングに統合される。
提案手法は,Wikidata で構築したガゼッタを用いた最先端の Transformer ベースの NER モデルに適用され,それらの一般化能力を示す。
最終的な予測は、これらの訓練されたモデルの集合から導かれる。
実験結果と詳細な解析により,提案手法の有効性が検証された。
公式の結果,本システムは3トラック (china, code-mixed, bangla) で第1位,他の10トラックで第2位となった。
関連論文リスト
- DAMO-NLP at SemEval-2023 Task 2: A Unified Retrieval-augmented System
for Multilingual Named Entity Recognition [94.90258603217008]
MultiCoNER RNum2共有タスクは、細粒度でノイズの多いシナリオにおいて、多言語の名前付きエンティティ認識(NER)に取り組むことを目的としている。
MultiCoNER RNum1の以前のトップシステムは、ナレッジベースまたはガゼッタを組み込んでいる。
細粒度多言語NERのための統一検索拡張システム(U-RaNER)を提案する。
論文 参考訳(メタデータ) (2023-05-05T16:59:26Z) - USTC-NELSLIP at SemEval-2023 Task 2: Statistical Construction and Dual
Adaptation of Gazetteer for Multilingual Complex NER [36.39635200544498]
本稿では,SemEval-2023 Task 2 Multilingual Complex Named Entity Recognition (MultiCoNER II)のためにUSTC-NELSLIPチームが開発したシステムについて述べる。
提案手法はWikidata で構築したガゼッタを用いて XLM-R に適用され,様々なトラックにまたがる高度な一般化能力を示す。
論文 参考訳(メタデータ) (2023-05-04T03:00:46Z) - Hybrid Rule-Neural Coreference Resolution System based on Actor-Critic
Learning [53.73316523766183]
コアレゾリューションシステムは2つの主要なタスクに取り組む必要がある。
ひとつのタスクは、潜在的な言及のすべてを検出することであり、もう1つは、可能な言及ごとに前者のリンクを学習することである。
本稿では,アクター・クリティカル・ラーニングに基づく複合ルール・ニューラル・コア参照解決システムを提案する。
論文 参考訳(メタデータ) (2022-12-20T08:55:47Z) - Neural Coreference Resolution based on Reinforcement Learning [53.73316523766183]
コアレゾリューションシステムは2つのサブタスクを解決する必要がある。
ひとつのタスクは、潜在的な言及のすべてを検出することであり、もう1つは、可能な言及ごとに前者のリンクを学習することである。
本稿では,アクターをベースとした強化学習型ニューラルコア参照分解システムを提案する。
論文 参考訳(メタデータ) (2022-12-18T07:36:35Z) - DualNER: A Dual-Teaching framework for Zero-shot Cross-lingual Named
Entity Recognition [27.245171237640502]
DualNERは、注釈付きソース言語コーパスとラベルなしターゲット言語テキストの両方をフル活用するためのフレームワークである。
NERの2つの相補的な学習パラダイム、すなわちシーケンスラベリングとスパン予測を統合マルチタスクフレームワークに統合する。
論文 参考訳(メタデータ) (2022-11-15T12:50:59Z) - Multilingual Name Entity Recognition and Intent Classification Employing
Deep Learning Architectures [2.9115403886004807]
本稿では,2種類のディープラーニングネットワークのエンティティ認識とインテント分類における有効性について検討する。
モデルは、英語とギリシャ語のATISベンチマークデータセットでトレーニングされ、テストされた。
論文 参考訳(メタデータ) (2022-11-04T12:42:29Z) - Joint Speech Translation and Named Entity Recognition [17.305879157385675]
重要なタスクは、上記のエンティティに関する情報で出力を豊かにすることです。
本稿では,名前付きエンティティ認識(NER)とエンティティリンクシステムとを併用したマルチタスクモデルを提案する。
実験の結果,NERタスクのカスケード(0.4-1.0 F1)は翻訳品質の劣化を伴わずに有意に優れていた。
論文 参考訳(メタデータ) (2022-10-21T14:24:46Z) - CROP: Zero-shot Cross-lingual Named Entity Recognition with Multilingual
Labeled Sequence Translation [113.99145386490639]
言語間NERは、整列した言語間表現や機械翻訳結果を通じて、言語間で知識を伝達することができる。
ゼロショット言語間NERを実現するために,クロスランガル・エンティティ・プロジェクション・フレームワーク(CROP)を提案する。
多言語ラベル付きシーケンス翻訳モデルを用いて、タグ付けされたシーケンスをターゲット言語に投影し、ターゲットの原文にラベル付けする。
論文 参考訳(メタデータ) (2022-10-13T13:32:36Z) - An Attention Ensemble Approach for Efficient Text Classification of
Indian Languages [0.0]
本稿では,インド・デヴァナガリ文字を母語とするマラーティー語における短文文書の細かな技術領域識別について述べる。
畳み込みニューラルネットワークが生成する中間文表現と双方向の長期記憶とを合体させ,効率的なテキスト分類を実現するcnn-bilstm注意アンサンブルモデルを提案する。
実験結果から,提案モデルが与えられたタスクにおける各種ベースライン機械学習および深層学習モデルより優れ,89.57%,f1スコア0.8875の検証精度が得られた。
論文 参考訳(メタデータ) (2021-02-20T07:31:38Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。