論文の概要: Effect of depth order on iterative nested named entity recognition
models
- arxiv url: http://arxiv.org/abs/2104.01037v1
- Date: Fri, 2 Apr 2021 13:18:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 17:39:23.170074
- Title: Effect of depth order on iterative nested named entity recognition
models
- Title(参考訳): 反復ネスト名前認識モデルにおける深さ順序の影響
- Authors: Perceval Wajsburt, Yoann Taill\'e, Xavier Tannier
- Abstract要約: ネストされた名前付きエンティティ認識(NER)モデルに対する言及の深さの順序の影響について検討する。
注文に依存しない反復モデルと、トレーニングや予測中にカスタム注文を選択する手順を設計します。
最小から最大の順序が最良の結果をもたらすことを示す。
- 参考スコア(独自算出の注目度): 1.619995421534183
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper studies the effect of the order of depth of mention on nested
named entity recognition (NER) models. NER is an essential task in the
extraction of biomedical information, and nested entities are common since
medical concepts can assemble to form larger entities. Conventional NER systems
only predict disjointed entities. Thus, iterative models for nested NER use
multiple predictions to enumerate all entities, imposing a predefined order
from largest to smallest or smallest to largest. We design an order-agnostic
iterative model and a procedure to choose a custom order during training and
prediction. To accommodate for this task, we propose a modification of the
Transformer architecture to take into account the entities predicted in the
previous steps. We provide a set of experiments to study the model's
capabilities and the effects of the order on performance. Finally, we show that
the smallest to largest order gives the best results.
- Abstract(参考訳): 本稿では,ネストされた名前付きエンティティ認識(NER)モデルに対する参照深度の影響について検討する。
NERはバイオメディカル情報の抽出において必須の課題であり、ネストされたエンティティは医療概念がより大きなエンティティを形成するために組み立てられるため、一般的である。
従来のNERシステムは、解離したエンティティのみを予測する。
したがって、ネストされたNERの反復モデルは、すべてのエンティティを列挙するために複数の予測を使い、定義済みの順序が最大か最小か最大かを示す。
我々は,オーダー非依存の反復モデルと,トレーニングと予測の間にカスタムオーダーを選択する手順を設計する。
この課題に対応するため,前回のステップで予測されたエンティティを考慮に入れたTransformerアーキテクチャの修正を提案する。
モデルの性能と順序が性能に与える影響を研究するための一連の実験を提供する。
最後に、最小から最大の順序が最良の結果を与えることを示す。
関連論文リスト
- A Collaborative Ensemble Framework for CTR Prediction [73.59868761656317]
我々は、複数の異なるモデルを活用するための新しいフレームワーク、CETNet(Collaborative Ensemble Training Network)を提案する。
ナイーブなモデルスケーリングとは違って,私たちのアプローチは,共同学習による多様性とコラボレーションを重視しています。
当社のフレームワークは,Metaの3つのパブリックデータセットと大規模産業データセットに基づいて検証する。
論文 参考訳(メタデータ) (2024-11-20T20:38:56Z) - Revisiting SMoE Language Models by Evaluating Inefficiencies with Task Specific Expert Pruning [78.72226641279863]
SMOE(Sparse Mixture of Expert)モデルは、言語モデリングにおける高密度モデルに代わるスケーラブルな代替品として登場した。
本研究は,SMoEアーキテクチャの設計に関する意思決定を行うために,タスク固有のモデルプルーニングについて検討する。
適応型タスク対応プルーニング手法 UNCURL を導入し,MoE 層当たりの専門家数をオフラインで学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T22:35:03Z) - ToNER: Type-oriented Named Entity Recognition with Generative Language Model [14.11486479935094]
生成モデルに基づく新しいNERフレームワーク、すなわちToNERを提案する。
ToNERでは、文中に最も現れる可能性が最も高いエンティティタイプを特定するために、最初は型マッチングモデルが提案されている。
我々は、生成モデルのエンコーダを微調整するために、複数のバイナリ分類タスクを追加し、入力文の洗練された表現を生成する。
論文 参考訳(メタデータ) (2024-04-14T05:13:37Z) - Hybrid Multi-stage Decoding for Few-shot NER with Entity-aware Contrastive Learning [32.62763647036567]
名前付きエンティティ認識は、ラベル付けされたいくつかの例に基づいて、新しいタイプの名前付きエンティティを識別できる。
MsFNER(Entity-Aware Contrastive Learning)を用いたFew-shot NERのためのハイブリッド多段復号法を提案する。
MsFNERは一般的なNERを、エンティティスパン検出とエンティティ分類の2つのステージに分割する。
論文 参考訳(メタデータ) (2024-04-10T12:31:09Z) - Enhancing Few-shot NER with Prompt Ordering based Data Augmentation [59.69108119752584]
本稿では,PODA(Prompt Ordering Based Data Augmentation)手法を提案する。
3つのパブリックNERデータセットの実験結果とさらなる分析により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-19T16:25:43Z) - Multi-task Transformer with Relation-attention and Type-attention for
Named Entity Recognition [35.44123819012004]
名前付きエンティティ認識(NER)は自然言語処理において重要な研究課題である。
本稿では,エンティティ境界検出タスクを名前付きエンティティ認識タスクに組み込むマルチタスク変換器を提案する。
論文 参考訳(メタデータ) (2023-03-20T05:11:22Z) - Sequence-to-Set Generative Models [9.525560801277903]
本稿では,任意のシーケンス生成モデルを集合生成モデルに変換するシーケンス・ツー・セット法を提案する。
本稿では,シーケンス・ツー・セット方式の例であるGRU2Setについて述べる。
我々のモデルの直接的な応用は、eコマース注文の集合から注文/セット分布を学ぶことである。
論文 参考訳(メタデータ) (2022-09-19T07:13:51Z) - Nested Named Entity Recognition as Holistic Structure Parsing [92.8397338250383]
本研究は,文中の全入れ子NEを全体構造としてモデル化し,全体構造解析アルゴリズムを提案する。
実験により、我々のモデルは、最先端にアプローチしたり、あるいは達成したりするような、広く使われているベンチマークで有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2022-04-17T12:48:20Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Application of Pre-training Models in Named Entity Recognition [5.285449619478964]
本稿では,BERT,ERNIE,ERNIE2.0-tiny,RoBERTaの4つの事前学習モデルのアーキテクチャと事前学習タスクを紹介する。
我々はこれらの事前学習モデルをNERタスクに微調整して適用し、異なるモデルアーキテクチャと事前学習タスクがNERタスクに与える影響を比較した。
実験の結果,RoBERTaはMSRA-2006データセット上で最先端の結果を得た。
論文 参考訳(メタデータ) (2020-02-09T08:18:20Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。