論文の概要: Label Alignment and Reassignment with Generalist Large Language Model for Enhanced Cross-Domain Named Entity Recognition
- arxiv url: http://arxiv.org/abs/2407.17344v1
- Date: Wed, 24 Jul 2024 15:13:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-25 13:25:07.095121
- Title: Label Alignment and Reassignment with Generalist Large Language Model for Enhanced Cross-Domain Named Entity Recognition
- Title(参考訳): 汎用大言語モデルによるラベルアライメントと再割り当てによるクロスドメイン名前付きエンティティ認識の強化
- Authors: Ke Bao, Chonghuan Yang,
- Abstract要約: ドメイン間の名前付きエンティティ認識は、ほとんどのNERメソッドで依然として課題となっている。
この問題に対処するため,ラベルアライメントと再割り当てアプローチ,すなわちLARを導入する。
我々は、教師付きシナリオとゼロショットシナリオの両方を含むNERデータセットに対して、幅広い実験を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Named entity recognition on the in-domain supervised and few-shot settings have been extensively discussed in the NLP community and made significant progress. However, cross-domain NER, a more common task in practical scenarios, still poses a challenge for most NER methods. Previous research efforts in that area primarily focus on knowledge transfer such as correlate label information from source to target domains but few works pay attention to the problem of label conflict. In this study, we introduce a label alignment and reassignment approach, namely LAR, to address this issue for enhanced cross-domain named entity recognition, which includes two core procedures: label alignment between source and target domains and label reassignment for type inference. The process of label reassignment can significantly be enhanced by integrating with an advanced large-scale language model such as ChatGPT. We conduct an extensive range of experiments on NER datasets involving both supervised and zero-shot scenarios. Empirical experimental results demonstrate the validation of our method with remarkable performance under the supervised and zero-shot out-of-domain settings compared to SOTA methods.
- Abstract(参考訳): NLPコミュニティでは、ドメイン内教師付きおよび少数ショット設定で名前付きエンティティ認識が広く議論され、大きな進歩を遂げている。
しかし、実際的なシナリオではより一般的なタスクであるクロスドメインのNERは、ほとんどのNERメソッドにとって依然として課題となっている。
これまでの研究は、ラベル情報をソースからターゲットドメインに関連付けるような知識伝達に重点を置いていたが、ラベル競合の問題に注目する研究はほとんどない。
本研究では,ラベルアライメントとリアサインメントのアプローチ,すなわち LAR を導入して,この課題に対処する手法を提案する。
ラベル再割り当てのプロセスは、ChatGPTのような先進的な大規模言語モデルと統合することにより、大幅に向上することができる。
我々は、教師付きシナリオとゼロショットシナリオの両方を含むNERデータセットに対して、幅広い実験を行う。
実証実験により,SOTA法と比較して,教師付きおよび0ショットの領域外設定下での本手法の有効性が実証された。
関連論文リスト
- Inter-Domain Mixup for Semi-Supervised Domain Adaptation [108.40945109477886]
半教師付きドメイン適応(SSDA)は、ソースとターゲットのドメイン分布をブリッジすることを目的としており、少数のターゲットラベルが利用可能である。
既存のSSDAの作業は、ソースドメインとターゲットドメインの両方からラベル情報をフル活用して、ドメイン間の機能アライメントに失敗する。
本稿では,新しいSSDA手法であるIDMNE(Inter-domain Mixup with Neighborhood Expansion)を提案する。
論文 参考訳(メタデータ) (2024-01-21T10:20:46Z) - Adaptive Betweenness Clustering for Semi-Supervised Domain Adaptation [108.40945109477886]
分類領域アライメントを実現するために,G-ABC (Adaptive Betweenness Clustering) と呼ばれる新しいSSDA手法を提案する。
提案手法は従来のSSDA手法よりも優れており,提案したG-ABCアルゴリズムの優位性を示している。
論文 参考訳(メタデータ) (2024-01-21T09:57:56Z) - Joint Attention-Driven Domain Fusion and Noise-Tolerant Learning for
Multi-Source Domain Adaptation [2.734665397040629]
マルチソースUnsupervised Domain Adaptationはラベル付きデータを持つ複数のソースドメインからラベル付きターゲットドメインに知識を転送する。
異なるドメインとターゲットドメイン内のノイズの多い擬似ラベル間の分散の相違は、どちらもパフォーマンスのボトルネックにつながる。
本稿では,意識駆動型ドメイン融合(ADNT)と雑音耐性学習(ADNT)を統合し,上記の2つの問題に対処するアプローチを提案する。
論文 参考訳(メタデータ) (2022-08-05T01:08:41Z) - Better Pseudo-label: Joint Domain-aware Label and Dual-classifier for
Semi-supervised Domain Generalization [26.255457629490135]
本稿では,高品質な擬似ラベルを生成するために,共同ドメイン認識ラベルと二重分類器を用いた新しいフレームワークを提案する。
ドメインシフト中の正確な擬似ラベルを予測するために、ドメイン対応擬似ラベルモジュールを開発する。
また、一般化と擬似ラベルの矛盾した目標を考えると、訓練過程において擬似ラベルとドメインの一般化を独立に行うために二重分類器を用いる。
論文 参考訳(メタデータ) (2021-10-10T15:17:27Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Your Classifier can Secretly Suffice Multi-Source Domain Adaptation [72.47706604261992]
マルチソースドメイン適応(MSDA)は、複数のラベル付きソースドメインからラベルなしターゲットドメインへのタスク知識の転送を扱う。
ラベル管理下のドメインを暗黙的に整列させる深層モデルが観察されるMSDAに対して、異なる視点を提示する。
論文 参考訳(メタデータ) (2021-03-20T12:44:13Z) - Domain Adaptation with Auxiliary Target Domain-Oriented Classifier [115.39091109079622]
ドメイン適応は、知識をラベルリッチだが異質なドメインからラベルケアドメインに転送することを目的としている。
最も一般的なSSLテクニックの1つは、ラベルのない各データに擬似ラベルを割り当てる擬似ラベル付けである。
我々はAuxiliary Target Domain-Oriented (ATDOC) と呼ばれる新しい擬似ラベリングフレームワークを提案する。
ATDOCは、ターゲットデータのみのための補助分類器を導入してバイアスを軽減し、擬似ラベルの品質を向上させる。
論文 参考訳(メタデータ) (2020-07-08T15:01:35Z) - Domain Adaptive Attention Learning for Unsupervised Person Re-Identification [43.958522138551935]
本稿では,ラベル付きソースドメインからラベル付きターゲットドメインへの識別表現を確実に伝達するドメイン適応型注意学習手法を提案する。
Market-1501、DukeMTMC-reID、MSMT17ベンチマークの実験では、提案されたアプローチが最先端技術より優れていることを示した。
論文 参考訳(メタデータ) (2019-05-25T06:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。