論文の概要: Effect of depth order on iterative nested named entity recognition
models
- arxiv url: http://arxiv.org/abs/2104.01037v1
- Date: Fri, 2 Apr 2021 13:18:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 17:39:23.170074
- Title: Effect of depth order on iterative nested named entity recognition
models
- Title(参考訳): 反復ネスト名前認識モデルにおける深さ順序の影響
- Authors: Perceval Wajsburt, Yoann Taill\'e, Xavier Tannier
- Abstract要約: ネストされた名前付きエンティティ認識(NER)モデルに対する言及の深さの順序の影響について検討する。
注文に依存しない反復モデルと、トレーニングや予測中にカスタム注文を選択する手順を設計します。
最小から最大の順序が最良の結果をもたらすことを示す。
- 参考スコア(独自算出の注目度): 1.619995421534183
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper studies the effect of the order of depth of mention on nested
named entity recognition (NER) models. NER is an essential task in the
extraction of biomedical information, and nested entities are common since
medical concepts can assemble to form larger entities. Conventional NER systems
only predict disjointed entities. Thus, iterative models for nested NER use
multiple predictions to enumerate all entities, imposing a predefined order
from largest to smallest or smallest to largest. We design an order-agnostic
iterative model and a procedure to choose a custom order during training and
prediction. To accommodate for this task, we propose a modification of the
Transformer architecture to take into account the entities predicted in the
previous steps. We provide a set of experiments to study the model's
capabilities and the effects of the order on performance. Finally, we show that
the smallest to largest order gives the best results.
- Abstract(参考訳): 本稿では,ネストされた名前付きエンティティ認識(NER)モデルに対する参照深度の影響について検討する。
NERはバイオメディカル情報の抽出において必須の課題であり、ネストされたエンティティは医療概念がより大きなエンティティを形成するために組み立てられるため、一般的である。
従来のNERシステムは、解離したエンティティのみを予測する。
したがって、ネストされたNERの反復モデルは、すべてのエンティティを列挙するために複数の予測を使い、定義済みの順序が最大か最小か最大かを示す。
我々は,オーダー非依存の反復モデルと,トレーニングと予測の間にカスタムオーダーを選択する手順を設計する。
この課題に対応するため,前回のステップで予測されたエンティティを考慮に入れたTransformerアーキテクチャの修正を提案する。
モデルの性能と順序が性能に与える影響を研究するための一連の実験を提供する。
最後に、最小から最大の順序が最良の結果を与えることを示す。
関連論文リスト
- Enhancing Few-shot NER with Prompt Ordering based Data Augmentation [59.69108119752584]
本稿では,PODA(Prompt Ordering Based Data Augmentation)手法を提案する。
3つのパブリックNERデータセットの実験結果とさらなる分析により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-19T16:25:43Z) - Multi-task Transformer with Relation-attention and Type-attention for
Named Entity Recognition [35.44123819012004]
名前付きエンティティ認識(NER)は自然言語処理において重要な研究課題である。
本稿では,エンティティ境界検出タスクを名前付きエンティティ認識タスクに組み込むマルチタスク変換器を提案する。
論文 参考訳(メタデータ) (2023-03-20T05:11:22Z) - Sequence-to-Set Generative Models [9.525560801277903]
本稿では,任意のシーケンス生成モデルを集合生成モデルに変換するシーケンス・ツー・セット法を提案する。
本稿では,シーケンス・ツー・セット方式の例であるGRU2Setについて述べる。
我々のモデルの直接的な応用は、eコマース注文の集合から注文/セット分布を学ぶことである。
論文 参考訳(メタデータ) (2022-09-19T07:13:51Z) - CorpusBrain: Pre-train a Generative Retrieval Model for
Knowledge-Intensive Language Tasks [62.22920673080208]
単一ステップ生成モデルは、検索プロセスを劇的に単純化し、エンドツーエンドで最適化することができる。
我々は、事前学習された生成検索モデルをCorpsBrainと名付け、コーパスに関する全ての情報が、追加のインデックスを構築することなく、そのパラメータにエンコードされる。
論文 参考訳(メタデータ) (2022-08-16T10:22:49Z) - Nested Named Entity Recognition as Holistic Structure Parsing [92.8397338250383]
本研究は,文中の全入れ子NEを全体構造としてモデル化し,全体構造解析アルゴリズムを提案する。
実験により、我々のモデルは、最先端にアプローチしたり、あるいは達成したりするような、広く使われているベンチマークで有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2022-04-17T12:48:20Z) - A Sequence-to-Set Network for Nested Named Entity Recognition [38.05786148160635]
ネストNERのための新しいシーケンス・ツー・セットニューラルネットワークを提案する。
我々は、非自己回帰デコーダを使用して、1回のパスで最終的なエンティティセットを予測する。
実験により, ネストした3つのNERコーパスに対して, 提案モデルが最先端となることを示す。
論文 参考訳(メタデータ) (2021-05-19T03:10:04Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Automated Concatenation of Embeddings for Structured Prediction [75.44925576268052]
本稿では, 埋め込みの自動結合(ACE)を提案し, 構造予測タスクにおける埋め込みのより優れた結合を見つけるプロセスを自動化する。
我々は、強化学習の戦略に従い、制御器のパラメータを最適化し、タスクモデルの精度に基づいて報酬を計算する。
論文 参考訳(メタデータ) (2020-10-10T14:03:20Z) - Application of Pre-training Models in Named Entity Recognition [5.285449619478964]
本稿では,BERT,ERNIE,ERNIE2.0-tiny,RoBERTaの4つの事前学習モデルのアーキテクチャと事前学習タスクを紹介する。
我々はこれらの事前学習モデルをNERタスクに微調整して適用し、異なるモデルアーキテクチャと事前学習タスクがNERタスクに与える影響を比較した。
実験の結果,RoBERTaはMSRA-2006データセット上で最先端の結果を得た。
論文 参考訳(メタデータ) (2020-02-09T08:18:20Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。