論文の概要: A Dual-Contrastive Framework for Low-Resource Cross-Lingual Named Entity
Recognition
- arxiv url: http://arxiv.org/abs/2204.00796v1
- Date: Sat, 2 Apr 2022 07:59:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 14:06:24.680941
- Title: A Dual-Contrastive Framework for Low-Resource Cross-Lingual Named Entity
Recognition
- Title(参考訳): 低リソースクロスリンガルエンティティ認識のためのデュアルコントラストフレームワーク
- Authors: Yingwen Fu, Nankai Lin, Ziyu Yang and Shengyi Jiang
- Abstract要約: クロスランガルな名前付きエンティティ認識(NER)は、低リソース言語におけるデータ空白問題を緩和できるため、最近研究ホットスポットになっている。
本稿では,言語間NERのための2言語コントラストフレームワーク ConCNER について述べる。
- 参考スコア(独自算出の注目度): 5.030581940990434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-lingual Named Entity Recognition (NER) has recently become a research
hotspot because it can alleviate the data-hungry problem for low-resource
languages. However, few researches have focused on the scenario where the
source-language labeled data is also limited in some specific domains. A common
approach for this scenario is to generate more training data through
translation or generation-based data augmentation method. Unfortunately, we
find that simply combining source-language data and the corresponding
translation cannot fully exploit the translated data and the improvements
obtained are somewhat limited. In this paper, we describe our novel
dual-contrastive framework ConCNER for cross-lingual NER under the scenario of
limited source-language labeled data. Specifically, based on the
source-language samples and their translations, we design two contrastive
objectives for cross-language NER at different grammatical levels, namely
Translation Contrastive Learning (TCL) to close sentence representations
between translated sentence pairs and Label Contrastive Learning (LCL) to close
token representations within the same labels. Furthermore, we utilize knowledge
distillation method where the NER model trained above is used as the teacher to
train a student model on unlabeled target-language data to better fit the
target language. We conduct extensive experiments on a wide variety of target
languages, and the results demonstrate that ConCNER tends to outperform
multiple baseline methods. For reproducibility, our code for this paper is
available at https://github.com/GKLMIP/ConCNER.
- Abstract(参考訳): クロスランガルな名前付きエンティティ認識(NER)は、低リソース言語におけるデータ空白問題を緩和できるため、最近研究ホットスポットになっている。
しかし、いくつかの特定のドメインにおいて、ソース言語ラベル付きデータも制限されるシナリオに注目した研究は少ない。
このシナリオの一般的なアプローチは、翻訳や生成ベースのデータ拡張メソッドを通じて、より多くのトレーニングデータを生成することだ。
残念ながら、ソースコードデータと対応する翻訳データを組み合わせるだけでは、翻訳データを完全に活用できないことが分かり、得られた改善はある程度制限されている。
本稿では, 限定されたソース言語ラベル付きデータのシナリオに基づいて, クロスリンガルnerのための, デュアルコントラストフレームワークconcnerについて述べる。
具体的には、ソース言語サンプルとそれらの翻訳に基づいて、異なる文法レベルでの言語間NERのための2つの対照的な目標、すなわち翻訳文ペア間の文表現のクローズ化(TCL)と、同一ラベル内のトークン表現のクローズ化(LCL)を設計する。
さらに、上記のNERモデルを教師として使用し、未ラベルのターゲット言語データに基づいて学生モデルを訓練し、ターゲット言語に適合させる知識蒸留手法を利用する。
対象とする言語を多種多様に実験した結果, ConCNER は複数のベースライン法より優れていることが示された。
本論文のコードは,再現性のためにhttps://github.com/GKLMIP/ConCNER.comで公開されている。
関連論文リスト
- mCL-NER: Cross-Lingual Named Entity Recognition via Multi-view
Contrastive Learning [54.523172171533645]
CrossNERは多言語コーパスの不足により不均一な性能から生じる課題に直面している。
言語横断的名前付きエンティティ認識(mCL-NER)のためのマルチビューコントラスト学習を提案する。
40言語にまたがるXTREMEベンチマーク実験では、従来のデータ駆動型およびモデルベースアプローチよりもmCL-NERの方が優れていることを示した。
論文 参考訳(メタデータ) (2023-08-17T16:02:29Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - ConNER: Consistency Training for Cross-lingual Named Entity Recognition [96.84391089120847]
言語間の名前付きエンティティ認識は、対象言語のデータの不足に悩まされる。
言語間NERのための新しい一貫性トレーニングフレームワークとしてConNERを提案する。
論文 参考訳(メタデータ) (2022-11-17T07:57:54Z) - CROP: Zero-shot Cross-lingual Named Entity Recognition with Multilingual
Labeled Sequence Translation [113.99145386490639]
言語間NERは、整列した言語間表現や機械翻訳結果を通じて、言語間で知識を伝達することができる。
ゼロショット言語間NERを実現するために,クロスランガル・エンティティ・プロジェクション・フレームワーク(CROP)を提案する。
多言語ラベル付きシーケンス翻訳モデルを用いて、タグ付けされたシーケンスをターゲット言語に投影し、ターゲットの原文にラベル付けする。
論文 参考訳(メタデータ) (2022-10-13T13:32:36Z) - AdvPicker: Effectively Leveraging Unlabeled Data via Adversarial
Discriminator for Cross-Lingual NER [2.739898536581301]
エンコーダがラベル付きソースコードからエンティティドメインの知識を学習する逆学習フレームワークを設計する。
提案手法は, このデータ選択プロセスの恩恵を強く受け, 既存の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-04T07:17:18Z) - Reinforced Iterative Knowledge Distillation for Cross-Lingual Named
Entity Recognition [54.92161571089808]
言語間NERは、知識をリッチリソース言語から低リソース言語に転送する。
既存の言語間NERメソッドは、ターゲット言語でリッチなラベル付けされていないデータをうまく利用しない。
半教師付き学習と強化学習のアイデアに基づく新しいアプローチを開発する。
論文 参考訳(メタデータ) (2021-06-01T05:46:22Z) - FILTER: An Enhanced Fusion Method for Cross-lingual Language
Understanding [85.29270319872597]
我々は,XLMファインタニングの入力として言語間データを利用する拡張融合法を提案する。
推論中は、ターゲット言語で入力されたテキストとソース言語の翻訳に基づいて予測を行う。
この問題に対処するため,対象言語における翻訳テキストのための自動生成ソフト擬似ラベルに基づくモデル学習のためのKL分割自己学習損失を提案する。
論文 参考訳(メタデータ) (2020-09-10T22:42:15Z) - Single-/Multi-Source Cross-Lingual NER via Teacher-Student Learning on
Unlabeled Data in Target Language [28.8970132244542]
言語間NERは、リッチなラベル付きデータを持つソース言語から学んだ知識を活用する必要がある。
このような制約に対処する教師支援学習手法を提案する。
提案手法は,シングルソースとマルチソースのクロスランガルNERにおいて,既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-04-26T17:22:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。