論文の概要: Single-/Multi-Source Cross-Lingual NER via Teacher-Student Learning on
Unlabeled Data in Target Language
- arxiv url: http://arxiv.org/abs/2004.12440v2
- Date: Wed, 15 Jul 2020 14:26:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 13:26:53.494293
- Title: Single-/Multi-Source Cross-Lingual NER via Teacher-Student Learning on
Unlabeled Data in Target Language
- Title(参考訳): 教師学習による単一/マルチソース多言語NER
- Authors: Qianhui Wu, Zijia Lin, B\"orje F. Karlsson, Jian-Guang Lou, Biqing
Huang
- Abstract要約: 言語間NERは、リッチなラベル付きデータを持つソース言語から学んだ知識を活用する必要がある。
このような制約に対処する教師支援学習手法を提案する。
提案手法は,シングルソースとマルチソースのクロスランガルNERにおいて,既存の最先端手法よりも優れている。
- 参考スコア(独自算出の注目度): 28.8970132244542
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To better tackle the named entity recognition (NER) problem on languages with
little/no labeled data, cross-lingual NER must effectively leverage knowledge
learned from source languages with rich labeled data. Previous works on
cross-lingual NER are mostly based on label projection with pairwise texts or
direct model transfer. However, such methods either are not applicable if the
labeled data in the source languages is unavailable, or do not leverage
information contained in unlabeled data in the target language. In this paper,
we propose a teacher-student learning method to address such limitations, where
NER models in the source languages are used as teachers to train a student
model on unlabeled data in the target language. The proposed method works for
both single-source and multi-source cross-lingual NER. For the latter, we
further propose a similarity measuring method to better weight the supervision
from different teacher models. Extensive experiments for 3 target languages on
benchmark datasets well demonstrate that our method outperforms existing
state-of-the-art methods for both single-source and multi-source cross-lingual
NER.
- Abstract(参考訳): ラベル付きデータが少ない言語における名前付きエンティティ認識(NER)問題に対処するために、言語間NERは、リッチラベル付きデータを持つソース言語から学んだ知識を効果的に活用する必要がある。
言語間NERに関する以前の研究は、主にペアテキストや直接モデル転送によるラベル投影に基づいている。
しかし、そのような方法は、ソース言語のラベル付きデータが使用できない場合や、対象言語に含まれるラベル付きデータに含まれる情報を利用しない場合は適用できない。
本稿では,その制約に対処する教師学習手法を提案する。そこでは,教材言語におけるNERモデルを教師として使用し,対象言語におけるラベルなしデータに基づいて学生モデルを訓練する。
提案手法はシングルソースとマルチソースのクロスランガルNERの両方で機能する。
後者では,教師モデルの違いによる教師の監督を向上する類似度測定手法を提案する。
ベンチマークデータセット上での3つのターゲット言語に対する大規模な実験は、我々の手法がシングルソースおよびマルチソースのクロスランガルNERに対して既存の最先端の手法よりも優れていることをよく示している。
関連論文リスト
- Cross-Lingual NER for Financial Transaction Data in Low-Resource
Languages [70.25418443146435]
半構造化テキストデータにおける言語間名前認識のための効率的なモデリングフレームワークを提案する。
我々は2つの独立したSMSデータセットを英語とアラビア語で使用し、それぞれが半構造化された銀行取引情報を持っている。
わずか30のラベル付きサンプルにアクセスすることで、我々のモデルは、英語からアラビア語までの商人、金額、その他の分野の認識を一般化することができる。
論文 参考訳(メタデータ) (2023-07-16T00:45:42Z) - Enhancing Low Resource NER Using Assisting Language And Transfer
Learning [0.7340017786387767]
私たちは、教師付きNERモデルをトレーニングするためにbaseBERT、AlBERT、RoBERTaを使用します。
複数の言語を用いて訓練されたモデルは、単一の言語よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2023-06-10T16:31:04Z) - ConNER: Consistency Training for Cross-lingual Named Entity Recognition [96.84391089120847]
言語間の名前付きエンティティ認識は、対象言語のデータの不足に悩まされる。
言語間NERのための新しい一貫性トレーニングフレームワークとしてConNERを提案する。
論文 参考訳(メタデータ) (2022-11-17T07:57:54Z) - CROP: Zero-shot Cross-lingual Named Entity Recognition with Multilingual
Labeled Sequence Translation [113.99145386490639]
言語間NERは、整列した言語間表現や機械翻訳結果を通じて、言語間で知識を伝達することができる。
ゼロショット言語間NERを実現するために,クロスランガル・エンティティ・プロジェクション・フレームワーク(CROP)を提案する。
多言語ラベル付きシーケンス翻訳モデルを用いて、タグ付けされたシーケンスをターゲット言語に投影し、ターゲットの原文にラベル付けする。
論文 参考訳(メタデータ) (2022-10-13T13:32:36Z) - A Dual-Contrastive Framework for Low-Resource Cross-Lingual Named Entity
Recognition [5.030581940990434]
クロスランガルな名前付きエンティティ認識(NER)は、低リソース言語におけるデータ空白問題を緩和できるため、最近研究ホットスポットになっている。
本稿では,言語間NERのための2言語コントラストフレームワーク ConCNER について述べる。
論文 参考訳(メタデータ) (2022-04-02T07:59:13Z) - AdvPicker: Effectively Leveraging Unlabeled Data via Adversarial
Discriminator for Cross-Lingual NER [2.739898536581301]
エンコーダがラベル付きソースコードからエンティティドメインの知識を学習する逆学習フレームワークを設計する。
提案手法は, このデータ選択プロセスの恩恵を強く受け, 既存の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-04T07:17:18Z) - Reinforced Iterative Knowledge Distillation for Cross-Lingual Named
Entity Recognition [54.92161571089808]
言語間NERは、知識をリッチリソース言語から低リソース言語に転送する。
既存の言語間NERメソッドは、ターゲット言語でリッチなラベル付けされていないデータをうまく利用しない。
半教師付き学習と強化学習のアイデアに基づく新しいアプローチを開発する。
論文 参考訳(メタデータ) (2021-06-01T05:46:22Z) - FILTER: An Enhanced Fusion Method for Cross-lingual Language
Understanding [85.29270319872597]
我々は,XLMファインタニングの入力として言語間データを利用する拡張融合法を提案する。
推論中は、ターゲット言語で入力されたテキストとソース言語の翻訳に基づいて予測を行う。
この問題に対処するため,対象言語における翻訳テキストのための自動生成ソフト擬似ラベルに基づくモデル学習のためのKL分割自己学習損失を提案する。
論文 参考訳(メタデータ) (2020-09-10T22:42:15Z) - CoSDA-ML: Multi-Lingual Code-Switching Data Augmentation for Zero-Shot
Cross-Lingual NLP [68.2650714613869]
我々は,mBERTを微調整するための多言語コードスイッチングデータを生成するためのデータ拡張フレームワークを提案する。
既存の研究と比較すると,本手法は訓練にバイリンガル文を頼らず,複数の対象言語に対して1つの学習プロセスしか必要としない。
論文 参考訳(メタデータ) (2020-06-11T13:15:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。