論文の概要: FactMix: Using a Few Labeled In-domain Examples to Generalize to
Cross-domain Named Entity Recognition
- arxiv url: http://arxiv.org/abs/2208.11464v1
- Date: Wed, 24 Aug 2022 12:12:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 12:27:46.644121
- Title: FactMix: Using a Few Labeled In-domain Examples to Generalize to
Cross-domain Named Entity Recognition
- Title(参考訳): factmix: いくつかのラベル付きインドメイン例を使用して、クロスドメイン名前付きエンティティ認識に一般化する
- Authors: Linyi Yang, Lifan Yuan, Leyang Cui, Wenyang Gao, Yue Zhang
- Abstract要約: 本稿では,モデルの一般化能力を向上させるために,2段階の有理中心データ拡張手法を提案する。
いくつかのデータセットの結果から,モデルに依存しない手法はドメイン間NERタスクの性能を著しく向上させることがわかった。
- 参考スコア(独自算出の注目度): 15.142119905774313
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Few-shot Named Entity Recognition (NER) is imperative for entity tagging in
limited resource domains and thus received proper attention in recent years.
Existing approaches for few-shot NER are evaluated mainly under in-domain
settings. In contrast, little is known about how these inherently faithful
models perform in cross-domain NER using a few labeled in-domain examples. This
paper proposes a two-step rationale-centric data augmentation method to improve
the model's generalization ability. Results on several datasets show that our
model-agnostic method significantly improves the performance of cross-domain
NER tasks compared to previous state-of-the-art methods, including the
counterfactual data augmentation and prompt-tuning methods. Our codes are
available at \url{https://github.com/lifan-yuan/FactMix}.
- Abstract(参考訳): 名前付きエンティティ認識(NER)は、限られたリソースドメインにおけるエンティティタグ付けに必須であり、近年は適切に注目されている。
既存のNERのアプローチは主にドメイン内設定で評価される。
対照的に、これらの本質的に忠実なモデルは、いくつかのラベル付きドメイン内の例を使用して、クロスドメインのNERでどのように機能するかは、ほとんど分かっていない。
本稿では,モデルの一般化能力を向上させるための2段階の有理中心データ拡張手法を提案する。
複数のデータセットから得られた結果から,提案手法は,従来の最先端手法と比較して,ドメイン間NERタスクの性能を著しく向上させることがわかった。
我々のコードは \url{https://github.com/lifan-yuan/FactMix} で入手できる。
関連論文リスト
- Improving Few-Shot Cross-Domain Named Entity Recognition by Instruction Tuning a Word-Embedding based Retrieval Augmented Large Language Model [0.0]
Few-Shot Cross-Domain NERは、データ豊富なソースドメインからの知識を活用して、データ不足のターゲットドメイン上でエンティティ認識を実行するプロセスである。
名前付きエンティティ認識のための検索拡張大言語モデルIF-WRANERを提案する。
論文 参考訳(メタデータ) (2024-11-01T08:57:29Z) - Multi-Domain Long-Tailed Learning by Augmenting Disentangled
Representations [80.76164484820818]
多くの現実世界の分類問題には、避けられない長い尾のクラスバランスの問題がある。
本稿では,この多領域長鎖学習問題について検討し,すべてのクラスとドメインにまたがってよく一般化されたモデルを作成することを目的とする。
TALLYは、選択的均衡サンプリング戦略に基づいて、ある例のセマンティック表現と別の例のドメイン関連ニュアンスを混合することでこれを達成している。
論文 参考訳(メタデータ) (2022-10-25T21:54:26Z) - Low-confidence Samples Matter for Domain Adaptation [47.552605279925736]
ドメイン適応(DA)は、知識をラベルの豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
低信頼度サンプルの処理による新しいコントラスト学習法を提案する。
提案手法を教師なしと半教師付きの両方のDA設定で評価する。
論文 参考訳(メタデータ) (2022-02-06T15:45:45Z) - CONTaiNER: Few-Shot Named Entity Recognition via Contrastive Learning [11.289324473201614]
既存のアプローチでは、ソースドメインからクラス固有のセマンティック機能と中間表現しか学ばない。
本研究では,Few-Shot NERのトークン間分布距離を最適化する新しいコントラスト学習手法であるCon TaiNERを提案する。
従来のテスト領域 (OntoNotes, CoNLL'03, WNUT '17, GUM) と新しい大規模Few-Shot NERデータセット (Few-NERD) を用いて行った実験では, CON TaiNER が従来の手法よりも3%-13%の絶対F1点で優れていた。
論文 参考訳(メタデータ) (2021-09-15T21:41:16Z) - Enhancing the Generalization for Intent Classification and Out-of-Domain
Detection in SLU [70.44344060176952]
インテント分類は、音声言語理解(SLU)における主要な課題である
近年の研究では、余分なデータやラベルを使用することで、OOD検出性能が向上することが示されている。
本稿では、IND意図分類とOOD検出の両方をサポートしながら、INDデータのみを用いてモデルを訓練することを提案する。
論文 参考訳(メタデータ) (2021-06-28T08:27:38Z) - Batch Normalization Embeddings for Deep Domain Generalization [50.51405390150066]
ドメインの一般化は、異なるドメインと見えないドメインで堅牢に実行されるように機械学習モデルをトレーニングすることを目的としている。
一般的な領域一般化ベンチマークにおいて,最先端技術よりも分類精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2020-11-25T12:02:57Z) - Named Entity Recognition without Labelled Data: A Weak Supervision
Approach [23.05371427663683]
本稿では,ラベル付きデータがない場合のNERモデルの学習方法を提案する。
このアプローチは、ターゲットドメインからテキストを自動的にアノテートするために、幅広いラベリング関数に依存している。
シーケンスラベリングモデルは、最終的にこの統一アノテーションに基づいて訓練することができる。
論文 参考訳(メタデータ) (2020-04-30T12:29:55Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z) - Zero-Resource Cross-Domain Named Entity Recognition [68.83177074227598]
既存のドメイン名付きエンティティ認識モデルは、多くのラベルなしコーパスや、ターゲットドメイン内のラベル付きNERトレーニングデータに依存している。
外部リソースを一切使用しないドメイン間NERモデルを提案する。
論文 参考訳(メタデータ) (2020-02-14T09:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。