論文の概要: Domain-Transferable Method for Named Entity Recognition Task
- arxiv url: http://arxiv.org/abs/2011.12170v1
- Date: Tue, 24 Nov 2020 15:45:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 13:11:22.468154
- Title: Domain-Transferable Method for Named Entity Recognition Task
- Title(参考訳): ドメイン変換可能な名前付きエンティティ認識タスク
- Authors: Vladislav Mikhailov and Tatiana Shavrina
- Abstract要約: 本稿では、任意の名前付きエンティティの集合に対して、ドメイン固有のNERモデルを学習する方法について述べる。
我々は、人間の努力なしに監督が得られ、ニューラルモデルが互いに学習できると仮定する。
- 参考スコア(独自算出の注目度): 0.6040938686276304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Named Entity Recognition (NER) is a fundamental task in the fields of natural
language processing and information extraction. NER has been widely used as a
standalone tool or an essential component in a variety of applications such as
question answering, dialogue assistants and knowledge graphs development.
However, training reliable NER models requires a large amount of labelled data
which is expensive to obtain, particularly in specialized domains. This paper
describes a method to learn a domain-specific NER model for an arbitrary set of
named entities when domain-specific supervision is not available. We assume
that the supervision can be obtained with no human effort, and neural models
can learn from each other. The code, data and models are publicly available.
- Abstract(参考訳): 名前付きエンティティ認識(NER)は自然言語処理と情報抽出の分野における基本的なタスクである。
NERは、質問応答、対話アシスタント、知識グラフの開発など、様々なアプリケーションにおいて、スタンドアロンツールや重要なコンポーネントとして広く使われている。
しかし、信頼性の高いNERモデルのトレーニングには、特に特殊なドメインにおいて、取得にコストがかかる大量のラベル付きデータが必要である。
本稿では、ドメイン固有の監視ができない場合に、任意の名前付きエンティティの集合に対してドメイン固有のNERモデルを学習する方法について述べる。
人間の努力なしには監督は得られず、神経モデルは互いに学ぶことができると仮定する。
コード、データ、モデルは公開されている。
関連論文リスト
- Learning to Generalize Unseen Domains via Multi-Source Meta Learning for Text Classification [71.08024880298613]
テキスト分類の多元的領域一般化について検討する。
本稿では、複数の参照ドメインを使用して、未知のドメインで高い精度を達成可能なモデルをトレーニングするフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T07:46:21Z) - Coarse-to-fine Knowledge Graph Domain Adaptation based on
Distantly-supervised Iterative Training [12.62127290494378]
知識グラフの適応と再学習のための統合フレームワークを提案する。
モデルをトレーニングするために手動のデータアノテーションは必要ない。
ドメイン固有の名前付きエンティティやトリプルの発見を容易にするための,新しい反復的トレーニング戦略を導入する。
論文 参考訳(メタデータ) (2022-11-05T08:16:38Z) - Simple Questions Generate Named Entity Recognition Datasets [18.743889213075274]
この研究は、単純な自然言語の質問によってNERデータセットを自動的に生成する、要求対生成のアプローチを導入している。
我々のモデルは、4つの異なる領域にわたる6つのNERベンチマークにおいて、以前の弱い教師付きモデルよりも大幅に優れています。
自然言語でNERのニーズを定式化することで、アワードのようなきめ細かいエンティティタイプのためのNERモデルを構築することもできます。
論文 参考訳(メタデータ) (2021-12-16T11:44:38Z) - Knowledge Graph Anchored Information-Extraction for Domain-Specific
Insights [1.6308268213252761]
新しいドメイン内で特定の情報ニーズを満たすためにタスクベースのアプローチを使用します。
美術NLP技術の状態を構成したパイプラインを使用して、インスタンスレベルのセマンティック構造を自動的に抽出する。
論文 参考訳(メタデータ) (2021-04-18T19:28:10Z) - Streaming Self-Training via Domain-Agnostic Unlabeled Images [62.57647373581592]
視覚認識モデル学習の過程を民主化することを目的としたストリーミング自己学習(SST)を提案する。
SSTの鍵となるのは、(1)ドメインに依存しない未ラベル画像により、追加の知識や監督なしにいくつかのラベル付き例でより良いモデルを学ぶことができ、(2)学習は継続的なプロセスであり、学習更新のスケジュールを構築することで行うことができる。
論文 参考訳(メタデータ) (2021-04-07T17:58:39Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Dynamic Fusion Network for Multi-Domain End-to-end Task-Oriented Dialog [70.79442700890843]
本稿では,対象ドメインと各ドメインの関連性を自動的に活用する新しい動的核融合ネットワーク(DF-Net)を提案する。
トレーニングデータが少ないと、平均13.9%の事前最良モデルを上回り、転送可能性を示す。
論文 参考訳(メタデータ) (2020-04-23T08:17:22Z) - Unsupervised Domain Clusters in Pretrained Language Models [61.832234606157286]
大規模事前学習型言語モデルでは,教師なしのドメインによってクラスタ化される文表現を暗黙的に学習する。
このようなモデルに基づくドメインデータ選択手法を提案する。
我々は5つの異なる領域にわたるニューラルネットワーク翻訳のためのデータ選択手法を評価する。
論文 参考訳(メタデータ) (2020-04-05T06:22:16Z) - Zero-Resource Cross-Domain Named Entity Recognition [68.83177074227598]
既存のドメイン名付きエンティティ認識モデルは、多くのラベルなしコーパスや、ターゲットドメイン内のラベル付きNERトレーニングデータに依存している。
外部リソースを一切使用しないドメイン間NERモデルを提案する。
論文 参考訳(メタデータ) (2020-02-14T09:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。